在solr4.x上使用IK分词设置useSmart没有效果的解决方案

大家知道由于lucene和solr在最新版本在分词方面改动比较大,在solr4.x上使用IK分词,并且设置粗细力度,安装官方的说法是这样设置的:

110330_xlZ4_137332.png结果发现建索引和查询时候的分词力度是一样的,默认是安装细力度分词,解决方案如下:

package org.apache.solr.analysis;


import java.io.Reader;

import java.util.Map;


import org.apache.lucene.analysis.Tokenizer;

import org.apache.lucene.analysis.util.TokenizerFactory;

import org.apache.lucene.util.AttributeSource.AttributeFactory;

import org.wltea.analyzer.lucene.IKTokenizer;


/**

 * 解决IK Analyzer 2012FF_hf1 在solr4.x应用时,配置useSmart失效的问题

 * 

 * @author  lqin

 * @date 2013-12-24

 * @email  qin.liang@sinovatio.com

 * @version  1.0

 * 

 */

public class IKAnalyzerSolrTokenizerFactory extends TokenizerFactory {


/**

* 构造函数,从参数里面读取配置

* @param args

*/

public IKAnalyzerSolrTokenizerFactory(Map<String, String> args) 

{

super(args);

assureMatchVersion();

// 设置分词力度,useSmart=true粗力度,useSmart=false细力度

this.setUseSmart("true".equals(args.get("useSmart")));

}

private boolean useSmart;

public boolean useSmart() 

{

return useSmart;

}

public void setUseSmart(boolean useSmart) 

{

this.useSmart = useSmart;

}

public void init(Map<String, String> args) {

this.useSmart = "true".equals(args.get("useSmart")) ;

}

@Override

public Tokenizer create(AttributeFactory factory, Reader input) 

{

Tokenizer _IKTokenizer = new IKTokenizer(input , this.useSmart);

        return _IKTokenizer;

}


}


修改配置:

110752_CESj_137332.png


转载于:https://my.oschina.net/u/137332/blog/188215

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值