solr学习文档之添加分词词库

在上一篇文章中我们学习了solr 的快速入门和针对mysql 数据库建立索引,今天我们介绍如何为solr 添加中文分词
1、  在百度搜索ik-analyzer,找到后下载,我下载的是【IKAnalyzer 2012FF_hf1.zip】,解压后会看到如下目录
 
2、  把IKAnalyzer2012FF_u1.jar拷贝到webapps下solr的lib文件夹下,把IKAnalyzer.cfg.xml和stopword.dic拷贝到solr的conf目录中
3、  修改schema.xml文件,增加如下内容:
<fieldTypename="text_ik" class="solr.TextField">     
     <analyzerclass="org.wltea.analyzer.lucene.IKAnalyzer"/>     
</fieldType>


4、  重启tomcat,在collection1中找到analysis,

选择text_ik并输入汉字“你好”,将会看到
 
则表示成功,你也可以按照ik所给的pdf文档进行操作

所谓分词,就是把你的话给拆开,比如,“我是一个好人”,不同的分词粒度拆分的细度不一样,有的拆成“我,我是,一,一个,好,好人,人”,有的拆成“我是,一个,好人”这主要取决于你的分析粒度


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值