solr中文分词的实现

IKAnalyer3.2.8 下载
http://code.google.com/p/ik-analyzer/downloads/detail?name=IKAnalyzer3.2.8%20bin.zip&can=2&q=

1.2 IK 分词器的安装   IKAnalyer3.2.8 下载

将IKAnalyzer3.2.5发行包解压,复制IKAnalyzer3.2.8Stable.jar到Solr的lib中,如/tomcat/webapps/solr/WEB-INF/lib,(如果用的是solr自带的example应用,则将该jar包放在\apache-solr-3.6.0\example\work\Jetty_0_0_0_0_8983_solr.war__solr__k1kf17\webapp\solr\WEB-INF\lib 目录下,因为work是solr自带的web应用文件存放的本地目录)

复制配置文件IKAnalyzer.cfg.xml和ext_stopword.dic到tomcat/bin中(如果用的是solr自带的example应用,可以不放这两个配置文件),如/home/tomcat/bin,同样,把这两个文件也放到/tomcat/webapps/solr/WEB-INF/lib 中;

打开solr本地应用文件夹,打开/solr/conf/scheme.xml,编辑text字段类型如下,添加到schema中

Xml代码 

<fieldType name="text" class="solr.TextField">   
       <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>   
</fieldType>  

 
或者是

 

 

<fieldType name="text_zh" class="solr.TextField" positionIncrementGap="100">

      <analyzer type="index">

        <tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" useSmart="false"/>

      </analyzer>

      <analyzer type="query">

        <tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" useSmart="false"/>

      </analyzer>

    </fieldType>

 

 


 

如果需要检索某个域,还需要在scheme.xml下面的field中,添加指定的域,用text_zh来作为type的名字,来完成中文切词。

如 title要是实现中文检索的话,就要做如下的配置:

<field name="title" type="text_zh" indexed="true" stored="true" multiValued="true"/>

但是目前用到的都是原来xml自带的field名字,如果添加新的field,在把xml添加到索引文件时会出现不认识新加字段的问题,目前没不知道原因,估计除了需要在schema.xml里配置,还需要在其他地方做配置才行。有待于继续发掘。

2 优化

配置solrconfig.xml,用来配置Solr的一些系统属性,比较重要的一个就是可以通过更改其中的dataDir属性来指定索引文件的存放 位置,对于有大数据量的情况下还要进行自动commit操作配置,以下设置为当内存索引量达到20W条时自动进行往磁盘写操作,以免堆溢出,这也是解决单 个入库xml文件最好不要超过30M的有效方法:

Xml代码  

<autocommit>  
  <maxdocs>200000</maxdocs>  
</autocommit>  

 
 

 

3:验证


Solr在 Tomcat里,所以启动Tomcat即可,建议初期用bootstrap.jar,方便发现配置中的错误,如

进入目录/home/tomcat/bin ,然后敲入 java -jar bootstrap.jar即可运行,不报错的话就可以正常访问了

http://127.0.0.1:8983/solr/ 或者http://localhost:8983/solr/admin/

 

 

 


[Solr分词顺序]

  Solr建立索引和对关键词进行查询都得对字串进行分词,在向索引库中添加全文检索类型的索引的时候,Solr会首先用空格进行分词,然后把分词结果依次使用指定的过滤器进行过滤,最后剩下的结果才会加入到索引库中以备查询。分词的顺序如下:

  索引

  1:空格whitespaceTokenize

  2:过滤词StopFilter

  3:拆字WordDelimiterFilter

  4:小写过滤LowerCaseFilter

  5:英文相近词EnglishPorterFilter

  6:去除重复词RemoveDuplicatesTokenFilter


 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Solr基于Lucene的全文搜索服务器。同时对其进行了扩展,提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展并对查询性能进行了优化,并且提供了一个完善的功能管理界面,是一款非常优秀的全文搜索引擎 课程特点毕业后接触的第一个中间件就是Solr,在工作中用处广泛,为了便于大家快速掌握该技能,开始录制相关课程,该专栏特点如下:1.采用Solr最新版本视频录制,全网最新课程(Solr8.1于2019年5月16日发布)2.技能点全网最全,会结合工作经验,项目中用到的技能点都会有所涉及,更新章节比较全面3.适用范围广,从零基础到高级架构以及分布式集群都涵盖,适用初级、高级、项目实战等多个层次开发者4.多种维度辅助学习,采用独立solr粉丝群辅助教学,学员问题会及时得到解决,程序员突破圈 打卡制度,督促学员学习关注后再购买、 关注后再购买、 关注后再购买课程能得到什么1.快速学习到最新版本的全文检索技术,从视频、文章、圈子、粉丝交流等快速促进学习2.通过该技术,获得面试进阶指导3.结交人脉(庞大的粉丝群)..End初期学员100人,价格不会太高,也是为了帮助更多的开发者但是个人精力有限,所以限制条件如下1.求知欲强,有想向技术更深一层了解的2.乐于交流,喜欢探讨技术者3.学习惰性者慎入,购买后会督促大家学习,购买不是目的,学习到该技能才是该专栏的主要目的正式进入学习状态了吗,专栏群见。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值