docker上安装ik分词器
前言:es本身也自带分词器,但是大多仅对英文比较友好,对于中文一般来说都是一个字一个词,不能实现我们想要的多字词分词,例如”北京天安门“,分词之后是“北”,“京”,“天”,“安”,“门“,所以我们需要手动安装”ik分词器,这款分词器相对于来说对中文分词是比较有好的“,下面进入步骤一、安装elasticsearch如未安装,可点击按步骤安装二、进入github找到ik分词器的下载链接搜索: elas
·
前言:
es本身也自带分词器,但是大多仅对英文比较友好,对于中文一般来说都是一个字一个词,不能实现我们想要的多字词分词,例如”北京天安门“,分词之后是“北”,“京”,“天”,“安”,“门“,所以我们需要手动安装”ik分词器,这款分词器相对于来说对中文分词是比较有好的“,下面进入步骤
一、安装elasticsearch
二、进入github找到ik分词器的下载链接
搜索: elasticsearch-analysis-ik,然后点击tags
一直找到所需要的版本,我用的是7.4.2
点击进去之后找到zip包后,鼠标右键复制链接地址
二、进入docker中elasticsearch的plugins
docker exec -it c_elasticsearch /bin/bash
cd plugins
mkdir ik
cd ik
三、下载ik分词器zip包
wget 复制的ik分词器链接地址
wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.4.2/elasticsearch-analysis-ik-7.4.2.zip
四、解压ik分词器
unzip elasticsearch-analysis-ik-7.4.2.zip
五、解压完成后重新启动es即可
docker restart 容器名
六、测试分词效果
{
"analyzer":"ik_max_word",
"text":"我爱喜之郎"
}
更多推荐
已为社区贡献2条内容
所有评论(0)