Lucene单字分词

之前使用的CJKAnalyzer分词器只能进行2字以上的搜索,比如说搜索中国可以搜出结果,但是搜索中,就没有结果。
因为CJKAnalyzer是二元分词,所以说单字搜索失效。
所以换做一元分词StandardAnalyzer或者ChineseAnalyzer
上面两个一元分词器虽然大体一样,但是区别就是ChineseAnalyzer会把文字中的数字给过滤掉。

代码块

下面是Spring注入的包

    <bean id="analyzer" class=" org.apache.lucene.analysis.standard.StandardAnalyzer" destroy-method="close">
        <constructor-arg><util:constant static-field="org.apache.lucene.util.Version.LUCENE_36"/></constructor-arg>
    </bean>

记得在更换分词器后需要删除一下Lucene生成的二进制文件,重新生成就好。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值