Lucene4.10.3自定义分词

Lucene4.10.3自定义分词只需三步:


一、

package analyzer;


import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;
import org.apache.lucene.analysis.tokenattributes.OffsetAttribute;
import org.apache.lucene.document.Document;
import org.wltea.analyzer.lucene.IKTokenizer;


import java.io.*;


/**
 * 自定义分词器
 * Created with IntelliJ IDEA.
 * User: wxshi
 * Date: 15-2-11
 * Time: 下午3:56
 * To change this template use File | Settings | File Templates.
 */
public class MyAnalyzer extends Analyzer{
    /**
     * 自定义分词过程:
     * 1.对流进行分词
     * 2.对分词好的进行过滤处理
     * 3.返回结果
     * */
    protected TokenStreamComponents createComponents(String s, Reader reader) {
        IKTokenizer source = new IKTokenizer(reader,false);        //使用IK进行分词 ,细粒度非智能
        TokenStream filter = new MySynonymTokenFilter(source);     //使用自己的同义词过滤器进行过滤
        //filter = new BarFilter(filter);                          //此处可以继续过滤
        return new TokenStreamComponents(source, filter);          //返回结果 ,第一种构造 ,复杂时推荐使用


       // return new TokenStreamComponents(new SynonymTokenIzer(reader));   //返回结果,第二种构造,简单时推荐使用
    }


    public static void main(String args[]){
        try{
            File file = new File("f:\\lucene\\indexFile\\文件1.txt");
            Document doc = new Document();
            FileInputStream fis = new FileInputStream(file);
            Reader reader = new BufferedReader(new InputStreamReader(fis,"GBK"));
            Analyzer analyzer = new MyAnalyzer();
            TokenStream tokenStream = analyzer.tokenStream("content",reader);      //ik分词流,不采用智
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值