lucene的中文分词器http://www.blogjava.net/dreamstone/archive/2007/06/22/125726.html

 lucene的中文分词器到现在还没有好的解决办法。下边介绍了两个lucene自己提供的分词器和一个javaeye上的网友实现的分词器。关于各个分词器的不同见代码中的print信息。直接运行得到console的输出结果更容易对比不同。
package  analyzer;

import  java.io.Reader;
import  java.io.StringReader;

import  org.apache.lucene.analysis.Analyzer;
import  org.apache.lucene.analysis.StopFilter;
import  org.apache.lucene.analysis.Token;
import  org.apache.lucene.analysis.TokenFilter;
import  org.apache.lucene.analysis.TokenStream;
import  org.apache.lucene.analysis.cjk.CJKAnalyzer;
import  org.apache.lucene.analysis.cn.ChineseAnalyzer;
import  org.apache.lucene.analysis.standard.StandardAnalyzer;
import  org.mira.lucene.analysis.IK_CAnalyzer;
import  org.mira.lucene.analysis.MIK_CAnalyzer;

import  com.sohospace.lucene.analysis.xanalyzer.XAnalyzer;
import  com.sohospace.lucene.analysis.xanalyzer.XFactory;
import  com.sohospace.lucene.analysis.xanalyzer.XTokenizer;
// 中文分词使用了Paoding的分词技术,特表示感谢
public   class  TestCJKAnalyzer  {
    
private static String testString1 = "中华人民共和国在1949年建立,从此开始了新中国的伟大篇章";
    
private static String testString2 = "比尔盖茨从事餐饮业和服务业方面的工作";
    
public static void testStandard(String testString) throws Exception{
        Analyzer analyzer 
= new StandardAnalyzer();      
        Reader r 
= new StringReader(testString);      
        StopFilter sf 
= (StopFilter) analyzer.tokenStream("", r);
        System.err.println(
"=====standard analyzer====");
        System.err.println(
"分析方法:默认没有词只有字");
        Token t;      
        
while ((t = sf.next()) != null{      
            System.out.println(t.termText());      
        }
     
    }

    
public static void testCJK(String testString) throws Exception{
        Analyzer analyzer 
= new CJKAnalyzer();      
        Reader r 
= new StringReader(testString);      
        StopFilter sf 
= (StopFilter) analyzer.tokenStream("", r);
        System.err.println(
"=====cjk analyzer====");
        System.err.println(
"分析方法:交叉双字分割");
        Token t;      
        
while ((t = sf.next()) != null{      
            System.out.println(t.termText());      
        }
     
    }

    
public static void testChiniese(String testString) throws Exception{
        Analyzer analyzer 
= new ChineseAnalyzer();      
        Reader r 
= new StringReader(testString);      
        TokenFilter tf 
= (TokenFilter) analyzer.tokenStream("", r);
        System.err.println(
"=====chinese analyzer====");
        System.err.println(
"分析方法:基本等同StandardAnalyzer");
        Token t;      
        
while ((t = tf.next()) != null{      
            System.out.println(t.termText());      
        }
     
    }

    
public static void testPaoding(String testString) throws Exception{
        XAnalyzer analyzer 
= XFactory.getQueryAnalyzer();   
        Reader r 
= new StringReader(testString);   
        XTokenizer ts 
= (XTokenizer) analyzer.tokenStream("", r);   
        System.err.println(
"=====paoding analyzer====");
        System.err.println(
"分析方法:字典分词,去掉停止词。在字典不能匹配的情况下使用CJKAnalyzer的分割发。");
        Token t;   
        
while ((t = ts.next()) != null{   
           System.out.println(t.termText());   
        }
   
    }

    
public static void testJe(String testString) throws Exception{
//        Analyzer analyzer = new MIK_CAnalyzer();
        Analyzer analyzer = new IK_CAnalyzer();
        Reader r 
= new StringReader(testString); 
        TokenStream ts 
= (TokenStream)analyzer.tokenStream("", r);
        System.err.println(
"=====je analyzer====");
        System.err.println(
"分析方法:字典分词,正反双向搜索,具体不明");
        Token t;   
        
while ((t = ts.next()) != null{   
           System.out.println(t.termText());   
        }
   
    }

    
public static void main(String[] args) throws Exception{
//        String testString = testString1;
        String testString = testString1;
        System.out.println(testString);
        
        testStandard(testString);
        testCJK(testString);
        testPaoding(testString);
        
//        testChiniese(testString);
//        testJe(testString);
    }


}

posted on 2007-06-22 09:15 dreamstone 阅读(1157) 评论(1)  编辑  收藏 所属分类: 搜索引擎lucence

 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值