麒麟V10安装docker之配置elasticsearchIK分词7.16.2
1、描述
上一期elasticsearch已经安装好了可以访问了,但是为了提高 Elasticsearch 在处理中文数据时的搜索效率和准确性。由于中文文本的特殊性,与英文等使用空格分隔单词的语言不同,中文文本中的词汇通常没有明显的分隔符。这就需要一个有效的分词器来识别和分割中文文本中的词汇,以便于搜索和索引。安装 Elasticsearch IK 分词器的主要原因:
✔、提高中文处理能力:Elasticsearch 默认的分词器主要针对英文设计,对于中文文本的处理效果并不理想。IK 分词器提供了更好的中文分词能力,可以有效地将中文文本切分为有意义的词汇。
✔、提升搜索准确性:通过更精确的中文分词,可以提高搜索的准确性,使得搜索结果更加符合用户的预期。
✔、支持自定义词库:IK 分词器支持自定义词库,这意味着你可以根据实际需求添加专业术语或常用词汇,进一步提升分词的准确度和搜索的相关性。
✔、两种分词模式:IK 提供了两种分词模式:精确模式和智能模式。精确模式适合需要精确分词的场景,如文本分析;智能模式则更适合搜索场景。
✔、提升全文搜索能力:在处理全文搜索时,准确的分词可以极大提高搜索的效率和质量,尤其是在处理大量中文文本数据时尤为重要。
2、IK分词压缩包/连接工具准备
我的IK是7.16.2版本的
给出网址:
https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.16.2
连接工具/自己百度下载
MobaXterm_Personal_20.3.exe
3、创建文件目录
我的IK分词目录在:
执行命令进入文件夹:
cd /mydata/elasticsearch/plugins/
执行命令/创建ik文件夹
mkdir ik
上传压缩包(图片借用之前的版本):
执行命令进入IK分词目录:
cd /mydata/elasticsearch/plugins/ik/
然后执行命令:
unzip elasticsearch-analysis-ik-7.16.2.zip
如果提示-bash: unzip: 未找到命令
执行命令:
yum install -y unzip zip
然后在执行
unzip elasticsearch-analysis-ik-7.16.2.zip
解压很多的文件(图片借用之前的版本)
解压完毕了执行命令删除zip文件
rm -rf elasticsearch-analysis-ik-7.16.2.zip
执行命令:ll ik文件下有好多的文件(图片是之前版本的)
执行命令重启elasticsearch :
docker restart elasticsearch
执行命令:
docker logs elasticsearch
关注我下一期继续:【docker之安装elasticsearch】麒麟V10国产系统安装kibana7.16.2