ElasticSearch安装中文分词器 ik
(1)下载中文分词器elasticsearch-analysis-ik-master.zip(一定要下载和你的es版本一致的)
官方下载:https://github.com/medcl/elasticsearch-analysis-ik
csdn下载:https://download.csdn.net/download/u014646662/11012894
(2)解压elasticsearch-analysis-ik-master.zip
unzip elasticsearch-analysis-ik-master.zip
(3)进入elasticsearch-analysis-ik-master,编译源码
mvn clean install -Dmaven.test.skip=true
(4)在es的plugins文件夹下创建目录ik
(5)将编译后生成的elasticsearch-analysis-ik-版本.zip移动到plugins/ik下,并解压
(6)解压后的内容移动到ik目录下
如果你不想编译,或是编译出错,可以到csdn下载编译好的elasticsearch-analysis-ik.zip
自己也可尝试自然语言分词器
- 基于自然语言处理的分词系统
- Hanlp
- 由一些列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用
- https://github.com/hankcs/HanLP
- THULAC
- THU Lexical Analyzer for Chinese,由清华大学自然语言处理与社会人文计算实验室研制推出的一套中文词法分析工具包,具有中文分词和词性标注功能
- https://github.com/microbun/elasticsearch-thulac-plugin
- Hanlp
对人工智能感兴趣的同学,可以点击以下链接:
现在人工智能非常火爆,很多朋友都想学,但是一般的教程都是为博硕生准备的,太难看懂了。最近发现了一个非常适合小白入门的教程,不仅通俗易懂而且还很风趣幽默。所以忍不住分享一下给大家。点这里可以跳转到教程。