Hadoop MapReduce 上利用Lucene实现分布式检索

前一篇文章(Hadoop MapReduce 上利用Lucene实现分布式检索)中介绍了如何在HDFS上利用建立分布式索引,本文将举例说明如何使用Lucene进行分布式的检索。

package hdfs.luceneSearch;

import java.io.IOException;

import org.apache.lucene.document.Document;
import org.apache.lucene.index.CorruptIndexException;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.Term;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.TermQuery;
import org.apache.lucene.search.TopDocs;

public class LuceneHDFSSearcher {
	private IndexReader reader;
	private IndexSearcher searcher;
	public LuceneHDFSSearcher(FsDirectory dir) throws CorruptIndexException, IOException{
		reader = IndexReader.open(dir);
		searcher = new IndexSearcher(reader);
	}
	
	public Document search(String value) throws CorruptIndexException, IOException{	
		Query query = null;	
		Term term = new Term("key",value);
		query = new TermQuery(term);
		
		Document doc = null;
		TopDocs hits = searcher.search(query,1);
		for(ScoreDoc scoreDoc:hits.scoreDocs){
			doc = searcher.doc(scoreDoc.doc);
		}				
		return doc;	
	}
	public void close() throws IOException{
		// 关闭对象
		searcher.close();
		reader.close();
	}
}

  可以看出,该检索方法和单机进行Lucene检索的方法是基本一样的,唯一一个不同的地方是:单机检索时,使用的是FSDirectory类来构建IndexReader,而这里则使用FsDirectory类。这个类封装了原有类的方法,并支持HDFS。Nutch中使用的就是FsDirectory类,可以从Nutch的源码中获得该类的源码,直接拷贝过来使用即可。 

 

 

转载于:https://www.cnblogs.com/xiaoxuch-zhl/archive/2012/08/08/2627977.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值