Lucene 查询分页技术

常用的Lucene查询代码如下所示,该代码的作用是将path路径下的所有索引信息返回

 1 public String matchAll(String path) {
 2         try {
 3             Directory directory = FSDirectory.open(new File(path));
 4             DirectoryReader reader = DirectoryReader.open(directory);
 5             IndexSearcher searcher = new IndexSearcher(reader);
 6             MatchAllDocsQuery query = new MatchAllDocsQuery();
 7             
 8             ScoreDoc[] hits = searcher.search(query, null, Integer.MAX_VALUE).scoreDocs;
 9             StringBuffer buffer = new StringBuffer();
10             for (int i = 0; i < hits.length; i++) {
11                 Document hitDocument = searcher.doc(hits[i].doc);
12 //                System.out.println(hitDocument.get("key")
13 //                        + "......"+hitDocument.get("value"));
14                 buffer.append(hitDocument.get("key")+";"+hitDocument.get("value")+"|");
15             }
16             return buffer.toString();
17         } catch (IOException e) {
18             e.printStackTrace();
19         }
20         return null;
21     }

但是当该文件夹下索引的数目比较巨大,那么在执行以下代码的时候,则会出现java.lang.OutOfMemoryError: Java heap space的提示

ScoreDoc[] hits = searcher.search(query, null, Integer.MAX_VALUE).scoreDocs;

这时候,我们可以考虑使用分页技术,比如以前大约1亿条数据,我们可以将其分成100个100W的页,每次对100W条索引数据进行处理,这样就可以避免上述情况的发生。在Lucene 中,我们使用searchAfter的方法实现上述功能。它的官方API介绍如下所示:

public TopDocs searchAfter(ScoreDoc after,
                  Query query,
                  int n)
                    throws IOException
Finds the top  n hits for  query where all results are after a previous result ( after).

By passing the bottom result from a previous page as after, this method can be used for efficient 'deep-paging' across potentially large result sets.

Throws:
BooleanQuery.TooManyClauses
IOException
 1 private String transToContent(IndexSearcher searcher,TopDocs topDocs) throws IOException {
 2         ScoreDoc[] scoreDocs = topDocs.scoreDocs;
 3         StringBuffer sb = new StringBuffer();
 4         for(int i=0; i<scoreDocs.length; i++) {
 5             Document doc  = searcher.doc(scoreDocs[i].doc);
 6             sb.append(doc.get("key")+";"+doc.get("value")+"|");
 7         }
 8         return sb.toString();
 9     }
10         
11     private void matchAll(String path) {
12         try {
13             Directory directory = FSDirectory.open(new File(path));
14             DirectoryReader reader = DirectoryReader.open(directory);
15             IndexSearcher searcher = new IndexSearcher(reader);
16             
17             ScoreDoc after = null;
18             TopDocs topDocs = searcher.searchAfter(after, new MatchAllDocsQuery(), Preference.PAGE_SIZE);
19             int curPage = 1;
20             while(topDocs.scoreDocs.length > 0) {
21                 System.out.println("Current Page:"+ (curPage++) );
22                 System.out.println(transToContent(searcher, topDocs));
23                 after = topDocs.scoreDocs[topDocs.scoreDocs.length -1];
24                 topDocs = searcher.searchAfter(after, new MatchAllDocsQuery(), Preference.PAGE_SIZE);
25             }
26         } catch (IOException e) {
27             e.printStackTrace();
28         }
29     }

 

转载于:https://www.cnblogs.com/nashiyue/p/4652506.html

lucene搜索分页过程中,可以有两种方式 一种是将搜索结果集直接放到session中,但是假如结果集非常大,同时又存在大并发访问的时候,很可能造成服务器的内存不足,而使服务器宕机 还有一种是每次都重新进行搜索,这样虽然避免了内存溢出的可能,但是,每次搜索都要进行一次IO操作,如果大并发访问的时候,你要保证你的硬盘的转速足够的快,还要保证你的cpu有足够高的频率 而我们可以将这两种方式结合下,每次查询都多缓存一部分的结果集,翻页的时候看看所查询的内容是不是在已经存在在缓存当中,如果已经存在了就直接拿出来,如果不存在,就进行查询后,从缓存中读出来. 比如:现在我们有一个搜索结果集 一个有100条数据,每页显示10条,就有10页数据. 安装第一种的思路就是,我直接把这100条数据缓存起来,每次翻页时从缓存种读取 而第二种思路就是,我直接从搜索到的结果集种显示前十条给第一页显示,第二页的时候,我在查询一次,给出10-20条数据给第二页显示,我每次翻页都要重新查询 第三种思路就变成了 我第一页仅需要10条数据,但是我一次读出来50条数据,把这50条数据放入到缓存当中,当我需要10--20之间的数据的时候,我的发现我的这些数据已经在我的缓存种存在了,我就直接存缓存中把数据读出来,少了一次查询,速度自然也提高了很多. 如果我访问第六页的数据,我就把我的缓存更新一次.这样连续翻页10次才进行两次IO操作 同时又保证了内存不容易被溢出.而具体缓存设置多少,要看你的服务器的能力和访问的人数来决定
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值