- 博客(2)
- 资源 (8)
- 问答 (1)
- 收藏
- 关注
原创 Lucene V3.0.2分词、高亮
Lucene版本升级到3.0以后,原来的分词方式(token=tokenStream.next())的方式已经被抛弃,转而使用TermAttribute,本例使用SmartChineseAnalyzer演示如何分词,此外,本例还演示了如何对命中文档域进行高亮显示。
2010-12-13 17:24:00 3381 3
原创 Lucene V3.0.2搜索例子
Lucene3.0开始已经完全抛弃了2.x使用的Hits类,转而使用TopDocs,TopFieldDocs。本例演示了如何使用这两个类进行搜索。
2010-12-13 17:11:00 3383 7
MSXML6.0 SDK
2009-08-30
Linux - Teach Yourself Shell Programming in 24 Hours
2008-04-20
Java与c++进行Socket通信问题--求帮助
2011-05-14
TA创建的收藏夹 TA关注的收藏夹
TA关注的人