solr 4.9配置IKAnalyzer

1、将IKAnalyzer2012FF_u1.jar放入webapps\solr\WEB-INF\lib下。

2、将IKAnalyzer配置文件IKAnalyzer.cfg.xml和stopword.dic放入webapps\solr\WEB-INF\classes目录下。

3、在solr_home\collection1\conf\schema.xml中添加IKAnalyzer配置,如下

<fieldType name="text_ik" class="solr.TextField"><span style="white-space:pre">	</span><!-- 注意此处不能添加“positionIncrementGap”属性,否则会在启动时报IKAnalyzer没有该属性错误,对于出错原因可以网上查下。 -->
<span style="white-space:pre">	</span><analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>	
</fieldType>

<field name="testik" type="text_ik" indexed="true" stored="true" multiValued="false" />

配置完成, 但是在IKAnalyzer_2012FF_hf1版本的IKAnalyzer类中没有读取配置中的useSmart属性,所以在建立索引和查询索引中都使用的是细粒度分词。网上也有了对此问题的解决方案,但是基本上都是通过修改源代码方式解决。
考虑到以后代码的更新和维护等原因,没有修改IKAnalyzer源代码。而是新建了一个JAVA项目,并创建了两个类IKAnalyzerWithSmart(默认智能分词)和IKAnalyzerWithoutSmart(默认细粒度分词),源代码和IKAnalyzer代码相同,只是分别将useSmart设置为true和false。最后将项目导出为jar包。将myikanalyzer.jar放入webapps\solr\WEB-INF\lib目录下,并修改schema.xml文件内容如下,这样就能够在创建索引时使用智能分词,在查询索引时使用细粒度分词。

<fieldType name="text_ik" class="solr.TextField">
	<analyzer type="index" class="org.wltea.analyzer.lucene.IKAnalyzerWithSmart" />
	<analyzer type="query" class="org.wltea.analyzer.lucene.IKAnalyzerWithoutSmart" />
</fieldType>

另附IKAanalyzerWithSmart和IKAnalyzerWithoutSmart源码:

package org.wltea.analyzer.lucene;

import java.io.Reader;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.Tokenizer;

/**   
 * @Description: TODO
 * @author houqirui 
 * @date 2014-8-1 下午5:01:57 
 */
public final class IKAnalyzerWithSmart extends Analyzer{
	
	private boolean useSmart = true;
	
	public boolean useSmart() {
		return useSmart;
	}

	public void setUseSmart(boolean useSmart) {
		this.useSmart = useSmart;
	}

	/**
	 * IK分词器Lucene  Analyzer接口实现类
	 * 
	 * 默认细粒度切分算法
	 */
	public IKAnalyzerWithSmart(){
		this(true);
	}
	
	/**
	 * IK分词器Lucene Analyzer接口实现类
	 * 
	 * @param useSmart 当为true时,分词器进行智能切分
	 */
	public IKAnalyzerWithSmart(boolean useSmart){
		super();
		this.useSmart = useSmart;
	}

	/**
	 * 重载Analyzer接口,构造分词组件
	 */
	@Override
	protected TokenStreamComponents createComponents(String fieldName, final Reader in) {
		Tokenizer _IKTokenizer = new IKTokenizer(in , this.useSmart());
		return new TokenStreamComponents(_IKTokenizer);
	}
}

package org.wltea.analyzer.lucene;

import java.io.Reader;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.Tokenizer;

/**   
 * @Description: TODO
 * @author houqirui   
 * @date 2014-8-1 下午5:01:57 
 */
public final class IKAnalyzerWithoutSmart extends Analyzer{
	
	private boolean useSmart = false;
	
	public boolean useSmart() {
		return useSmart;
	}

	public void setUseSmart(boolean useSmart) {
		this.useSmart = useSmart;
	}

	/**
	 * IK分词器Lucene  Analyzer接口实现类
	 * 
	 * 默认细粒度切分算法
	 */
	public IKAnalyzerWithoutSmart(){
		this(false);
	}
	
	/**
	 * IK分词器Lucene Analyzer接口实现类
	 * 
	 * @param useSmart 当为true时,分词器进行智能切分
	 */
	public IKAnalyzerWithoutSmart(boolean useSmart){
		super();
		this.useSmart = useSmart;
	}

	/**
	 * 重载Analyzer接口,构造分词组件
	 */
	@Override
	protected TokenStreamComponents createComponents(String fieldName, final Reader in) {
		Tokenizer _IKTokenizer = new IKTokenizer(in , this.useSmart());
		return new TokenStreamComponents(_IKTokenizer);
	}
}



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值