分词
就是把一段中文或者别的拆分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看作一个词,比如"小韩喜欢赚钱"会被分为“小”,“韩”,“喜”,“欢”,“赚”,“钱”,这样显然是不符合索引列表要求的,所有我们需要安装中文分词器IK来解决这个问题。
ik分词器的安装
1.下载路径:https://github.com/medcl/elasticsearch-analysis-ik
2.然后将其解压缩到D:\Elasticsearch\elasticsearch-7.15.2\plugins中即可(最好包一个ik包)
3.然后重启观察Es。会发现加载了ik分词器。
IK提供两个分词算法
ik_smart: 最少切分
ik_max_word: 最细粒度划分
在自定义词汇时,ik是不会识别的。这时就需要将自定义的词汇添加到ik分词器字典中。
ik 分词器增加自己的配置
1.先添加自己的自定义字典,其中填写想要的词汇(不同的词汇直接回车区分) 后缀.dic文件
2.在IKAnalyzer.cfg.xml将自定义的字典声明注入
然后重启es就会在日志中发现自定义的字典被加载。