第六步:Lucene查询索引(优化一)

package cn.harmel.lucene;

import java.io.IOException;
import java.nio.file.Paths;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.queryparser.classic.ParseException;
import org.apache.lucene.queryparser.classic.QueryParser;
import org.apache.lucene.queryparser.classic.QueryParser.Operator;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.Query;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.SearcherFactory;
import org.apache.lucene.search.SearcherManager;
import org.apache.lucene.search.Sort;
import org.apache.lucene.search.SortField;
import org.apache.lucene.search.SortField.Type;
import org.apache.lucene.search.TopDocs;
import org.apache.lucene.store.FSDirectory;

public class SearchIndex {
	public static void main(String[] args) throws IOException, ParseException {		
		/*---------------------------------------------------------------------------------
		 * String queryString="title:\"美国\"";//包含“美国”
		 * String queryString="NOT title:\"美国\" AND title:\"国\"";//不包含 “美国” 但是包含 “国”
		 * String queryString="title:\"中\" AND title:\"国人\"";//即包含 “中” 又包含 ”国人“
		 * String queryString="title:\"张三\" OR title:\"李四\"";//包含 “张三” 或 ”李四“
		 * String queryString="id:[1 TO 5]";//查询 1<=id<=5
		 * String queryString="id:{1 TO 5}";//查询 1<id<5
		 * String queryString="title:\"中国\" AND NOT title:\"张三\" AND id:[1 TO 5]";
		 * String queryString="title:(中国 张三)";即包含 “中国” 又包含 ”张三“
		 ---------------------------------------------------------------------------------*/
		String queryString="title:\"中国\"";
		
		Analyzer analyzer = new StandardAnalyzer();  //StandardAnalyzer:汉字一个一个字拆分索引
        IndexSearcher is = getIndexSearcher();
        QueryParser parser=new QueryParser("", analyzer);
        parser.setDefaultOperator(Operator.AND);//默认状态下,空格被认为是OR的关系,设置为空格为AND
        Query query = parser.parse(queryString);
        //排序
        Sort sort = new Sort(new SortField("dt", Type.LONG, true));
        TopDocs topDocs = is.search(query, 20,sort);
        System.out.println("总共匹配多少个:" + topDocs.totalHits);
        //获取查询结果集
        ScoreDoc[] hits = topDocs.scoreDocs;
        //遍历结果集
        for (ScoreDoc scoreDoc : hits) {
            Document document = is.doc(scoreDoc.doc);
            System.out.println(document.get("id")+"-"+document.get("name")+"-"+document.get("dt")+"-"+document.get("title"));
        }
        closeIndexSearcher(is);        
	}	
	
	/*
	 * 解决:实现实时搜索功能
	 * 解决:在读取索引文件内容时,索引文件的打开操作IndexSearcher是个非常耗时耗资源的操作
	 * */
	private static byte[] synchronized_r = new byte[0];
	private static SearcherManager searcherManager = null;
	private static IndexSearcher getIndexSearcher() throws IOException {
	    IndexSearcher indexSearcher = null;
	    //保证在同一时刻最多只有一个线程执行该段代码
	    synchronized (synchronized_r) {
	        if(searcherManager == null) {
	            searcherManager = new SearcherManager(FSDirectory.open(Paths.get("E:\\LuceneIndex")), new SearcherFactory());
	        }
	        /*
	         * 这个方法同DirectoryReader.openIfChanged(dirReader)效果一样,其实底层还是调用的该方法实现的
	         * DirectoryReader.openIfChanged(dirReader)可以判断当前Reader对象的索引有没有被修改过
	         * 如果索引文件被更新过则重新加载该索引目录
	         * 但是这个时候的重新加载则比单纯的open(indexPath)要高效很多
	         * 它只是重新加载被更新过的文档,而单纯的open则是加载全部的文档
	         * */
	        searcherManager.maybeRefresh();
	        //借用一个IndexSearcher对象的引用,记住该对象用完之后要归还的,有借有还再借不难
	        indexSearcher = searcherManager.acquire();
	    }
	    return indexSearcher;
	}

	private static void closeIndexSearcher(IndexSearcher indexSearcher) throws IOException {
	    if(indexSearcher != null) {
	        searcherManager.release(indexSearcher);//归还从SearcherManager处借来的IndexSearcher对象
	    }
	    indexSearcher = null;
	}
}

  

转载于:https://www.cnblogs.com/lb809663396/p/5864761.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
lucene搜索分页过程中,可以有两种方式 一种是将搜索结果集直接放到session中,但是假如结果集非常大,同时又存在大并发访问的时候,很可能造成服务器的内存不足,而使服务器宕机 还有一种是每次都重新进行搜索,这样虽然避免了内存溢出的可能,但是,每次搜索都要进行一次IO操作,如果大并发访问的时候,你要保证你的硬盘的转速足够的快,还要保证你的cpu有足够高的频率 而我们可以将这两种方式结合下,每次查询都多缓存一部分的结果集,翻页的时候看看所查询的内容是不是在已经存在在缓存当中,如果已经存在了就直接拿出来,如果不存在,就进行查询后,从缓存中读出来. 比如:现在我们有一个搜索结果集 一个有100条数据,每页显示10条,就有10页数据. 安装第一种的思路就是,我直接把这100条数据缓存起来,每次翻页时从缓存种读取 而第二种思路就是,我直接从搜索到的结果集种显示前十条给第一页显示,第二页的时候,我在查询一次,给出10-20条数据给第二页显示,我每次翻页都要重新查询 第三种思路就变成了 我第一页仅需要10条数据,但是我一次读出来50条数据,把这50条数据放入到缓存当中,当我需要10--20之间的数据的时候,我的发现我的这些数据已经在我的缓存种存在了,我就直接存缓存中把数据读出来,少了一次查询,速度自然也提高了很多. 如果我访问第六页的数据,我就把我的缓存更新一次.这样连续翻页10次才进行两次IO操作 同时又保证了内存不容易被溢出.而具体缓存设置多少,要看你的服务器的能力和访问的人数来决定

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值