Lucene V3.0.2分词、高亮

Lucene版本升级到3.0以后,原来的分词方式(token=tokenStream.next())的方式已经被抛弃,转而使用TermAttribute,本例使用SmartChineseAnalyzer演示如何分词,此外,本例还演示了如何对命中文档域进行高亮显示。

 

 

本例需要使用四个jar包:

lucene-core-3.0.3.jar 

lucene-highlighter-3.0.2.jar

lucene-smartcn-3.0.2.jar

lucene-memory-3.0.2.jar

 

在高亮时有一个特别需要注意的问题:

当输入的查询词为"人民币升值"时,会抛出NoClassDefFoundError:org/apache/lucene/index/memory/MemoryIndex异常,如果将“人民币”与“升值”使用空格分开,则不会出现此异常。

解决方式是将lucene-memory-3.0.2.jar添加到classpath中。

 

 

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值