
lucene
文章平均质量分 86
侯志贞
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
nutch1.3集成solr3.4并支持中文
(一)安装nutch1.31.linux环境,分别从nutch、solr官网下载1.3版本和3.4版本压缩包2.分别解压,假定nutch目录为/nutch1.3,solr目录为/apache-solr-3.4.03.进入/nutch-1.3/runtime/local目录,vibin/nutch,设置JDK1.6路径NUTCH_JAVA_HOME=/usr/转载 2014-01-24 11:39:28 · 625 阅读 · 0 评论 -
用于Lucene的各中文分词比较
对几种中文分析器,从分词准确性和效率两方面进行比较。分析器依次为:StandardAnalyzer、ChineseAnalyzer、CJKAnalyzer、IK_CAnalyzer、MIK_CAnalyzer、MMAnalyzer(JE分词)、PaodingAnalyzer。单纯的中文分词的实现一般为按字索引或者按词索引。按字索引顾名思义,就是按单个字建立索引。按词索引就是按词喽,根据词库中的转载 2014-01-24 09:34:52 · 1442 阅读 · 0 评论 -
solr 3.4配置中文分词IKAnalyzer3.2.8
最近在折腾solr,现在需要让其支持中文分词,在网上看到了很多关于使用paoding中文分词的文章,但是测试很久都不行,而且paoding这个分词工具很久没更新了,最新版本是paoding-analysis-2.0.4-beta.zip,于是在想有没有其它的分词工具可以使用,后来找到了IKAnalyzer,仔细看了下,感觉很不错,关键是配置很容易,参照一篇文章中的例子http://blog.sin转载 2014-01-24 16:41:00 · 744 阅读 · 0 评论