一、solr安装
资源:链接:https://pan.baidu.com/s/1DnFjgReamJ7frFgBaKhfZg 提取码:zimo
1.下载合适版本的Tomcat,并解压到没有中文的目录里面。
2.解压solr文件,把 solr 下的 dist 目录 solr-4.10.3.war 部署到 Tomcat\webapps 下(去掉版本号)。
3.点击Tomcat下bin文件夹里面的startup.bat,加压刚才的war包
4.把solr下example/lib/ext 目录下的所有的 jar 包,添加到 solr 的工程中(\WEB-INF\lib
目录下)。
5.创建一个 solrhome 。solr 下的/example/solr 目录就是一个 solrhome。复制此目录
到 D 盘改名为 solrhome (可以把这个文件夹放在任意没有中文的目录都行)
6.关联 solr 及 solrhome。需要修改 solr 工程的 web.xml 文件。
<env-entry>
<env-entry-name>solr/home</env-entry-name>
<env-entry-value>d:\solrhome</env-entry-value>
<env-entry-type>java.lang.String</env-entry-type>
</env-entry>
7.重新启动Tomcat,然后在浏览器输入http://localhost:8080/solr ,出现以下界面就表示solr安装成功。
二、使用solr自带分词分词
使用solr自带分词器对中文进行分词时,我们可以发现是将没一个文字划分为一个词。这和我们想要得到不一样。那么接下来就演示solr配合IK中文分词器的使用
三、solr中配置IK分词器
1、把 IKAnalyzer2012FF_u1.jar 添加到 solr 工程的 lib 目录下
2、创建 WEB-INF/classes 文件夹 把扩展词典、停用词词典、配置文件放到 solr 工程
的 WEB-INF/classes 目录下。
3、修改 Solrhome 的 schema.xml 文件,配置一个 FieldType,使用 IKAnalyzer
<fieldType name="text_ik" class="solr.TextField">
<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>
4.完成配置之后,重启Tomcat。刷新浏览器,重新选择text_ik模式进行分词,就和之前默认的分词不一样。
5.我们还可以在扩展词典里面添加我们想要的词语。
可以看到分词效果