使用solr搭建你的全文检索[转]

Solr 是一个可供企业使用的、基于 Lucene 的开箱即用的搜索服务器。对Lucene不熟?那么建议先看看下面两篇文档:

实战Lucene,第 1 部分: 初识 Lucene:http://www.ibm.com/developerworks/cn/java/j-lo-lucene1/

用Lucene加速Web搜索应用程序的开发:http://www.ibm.com/developerworks/cn/web/wa-lucene2/

一、 solr介绍

solr是基于Lucene Java搜索库的企业级全文搜索引擎,目前是apache的一个项目。它的官方网址在http://lucene.apache.org/solr/ 。solr需要运行在一个servlet 容器里,例如tomcat5.5solrlucene的上层提供了一个基于HTTP/XMLWeb Services,我们的应用需要通过这个服务与solr进行交互。

二、 solr安装和配置

关于solr的安装和配置,这里也有两篇非常好的文档,作者同时也是 Lucene Java 项目的提交人和发言人:

使用Apache Solr实现更加灵巧的搜索:http://www.ibm.com/developerworks/cn/java/j-solr1/index.html

http://www.ibm.com/developerworks/cn/java/j-solr2/index.html

下面主要说说需要注意的地方。

Solr的安装非常简单,下载solrzip包后解压缩将dist目录下的war文件改名为solr.war直接复制到tomcat5.5webapps目录即可。注意一定要设置solr的主位置。有三种方法。我采用的是在tomcat里配置java:comp/env/solr/home的一个JNDI指向solr的主目录(example目录下),建立/tomcat55/conf/Catalina/localhost/solr.xml文件。

<!--<br /> <br /> Code highlighting produced by Actipro CodeHighlighter (freeware)<br /> http://www.CodeHighlighter.com/<br /> <br /> --> < Context  docBase ="D:/solr.war"  debug ="0"  crossContext ="true"   >

   
< Environment  name ="solr/home"  type ="java.lang.String"  value ="D:/solr/solr"  override ="true"   />

</ Context >

     观察这个指定的solr主位置,里面存在两个文件夹:conf和data。其中conf里存放了对solr而言最为重要的两个配置文件schema.xml和solrconfig.xml。data则用于存放索引文件。

     schema.xml主要包括typesfields和其他的一些缺省设置。

solrconfig.xml用来配置Solr的一些系统属性,例如与索引和查询处理有关的一些常见的配置选项,以及缓存、扩展等等。

上面的文档对这两个文件有比较详细的说明,非常容易上手。注意到schema.xml里有一个

<!--<br /> <br /> Code highlighting produced by Actipro CodeHighlighter (freeware)<br /> http://www.CodeHighlighter.com/<br /> <br /> --> < uniqueKey > url </ uniqueKey >

的配置,这里将url字段作为索引文档的唯一标识符,非常重要。

三、 加入中文分词

对全文检索而言,中文分词非常的重要,这里采用了qieqie庖丁分词(非常不错:))。集成非常的容易,我下载的是2.0.4-alpha2版本,其中它支持最多切分和按最大切分。创建自己的一个中文TokenizerFactory继承自solr的BaseTokenizerFactory。

<!--<br /> <br /> Code highlighting produced by Actipro CodeHighlighter (freeware)<br /> http://www.CodeHighlighter.com/<br /> <br /> --> /**

 * Created by IntelliJ IDEA.

 * User: ronghao

 * Date: 2007-11-3

 * Time: 14:40:59

 * 中文切词 对庖丁切词的封装

 
*/

public   class  ChineseTokenizerFactory  extends  BaseTokenizerFactory {

    
/**

     * 最多切分   默认模式

     
*/

    
public   static   final  String MOST_WORDS_MODE  =   " most-words " ;

    
/**

     * 按最大切分

     
*/

    
public   static   final  String MAX_WORD_LENGTH_MODE  =   " max-word-length " ;

    
private  String mode  =   null ;

    
public   void  setMode(String mode) {

             
if  (mode == null || MOST_WORDS_MODE.equalsIgnoreCase(mode)

                      
||   " default " .equalsIgnoreCase(mode)) {

                  
this .mode = MOST_WORDS_MODE;

             } 
else   if  (MAX_WORD_LENGTH_MODE.equalsIgnoreCase(mode)) {

                  
this .mode = MAX_WORD_LENGTH_MODE;

             }

             
else  {

                  
throw   new  IllegalArgumentException( " 不合法的分析器Mode参数设置: "   +  mode);

             }

        }

    @Override

    
public   void  init(Map < String, String >  args) {

        
super .init(args);

        setMode(args.get(
" mode " ));

    }

    
public  TokenStream create(Reader input) {

        
return   new  PaodingTokenizer(input, PaodingMaker.make(),

                  createTokenCollector());

    }

    
private  TokenCollector createTokenCollector() {

        
if ( MOST_WORDS_MODE.equals(mode))

             
return   new  MostWordsTokenCollector();

        
if ( MAX_WORD_LENGTH_MODE.equals(mode))

             
return   new  MaxWordLengthTokenCollector();

        
throw   new  Error( " never happened " );

    }

}

在schema.xml的字段text配置里加入该分词器。

<!--<br /> <br /> Code highlighting produced by Actipro CodeHighlighter (freeware)<br /> http://www.CodeHighlighter.com/<br /> <br /> --> < fieldtype  name ="text"  class ="solr.TextField"  positionIncrementGap ="100" >

            
< analyzer  type ="index" >

                
< tokenizer  class ="com.ronghao.fulltextsearch.analyzer.ChineseTokenizerFactory"  mode ="most-words" />


                
< filter  class ="solr.StopFilterFactory"  ignoreCase ="true"  words ="stopwords.txt" />

                
< filter  class ="solr.WordDelimiterFilterFactory"  generateWordParts ="1"  generateNumberParts ="1"  catenateWords ="1"  catenateNumbers ="1"  catenateAll ="0" />

                
< filter  class ="solr.LowerCaseFilterFactory" />


                
< filter  class ="solr.RemoveDuplicatesTokenFilterFactory" />

            
</ analyzer >

            
< analyzer  type ="query" >

                
< tokenizer  class ="com.ronghao.fulltextsearch.analyzer.ChineseTokenizerFactory"  mode ="most-words" />                

                
< filter  class ="solr.SynonymFilterFactory"  synonyms ="synonyms.txt"  ignoreCase ="true"  expand ="true" />

                
< filter  class ="solr.StopFilterFactory"  ignoreCase ="true"  words ="stopwords.txt" />

                
< filter  class ="solr.WordDelimiterFilterFactory"  generateWordParts ="1"  generateNumberParts ="1"  catenateWords ="0"  catenateNumbers ="0"  catenateAll ="0" />

                
< filter  class ="solr.LowerCaseFilterFactory" />

                
< filter  class ="solr.RemoveDuplicatesTokenFilterFactory" />

            
</ analyzer >

        
</ fieldtype >

</ types >

    完成后重启tomcat,即可在http://localhost:8080/solr/admin/analysis.jsp

体验到庖丁的中文分词。注意要将paoding-analysis.jar复制到solr的lib下,注意修改jar包里字典的home。

四、 与自己应用进行集成

Solr安装完毕,现在可以将自己的应用与solr集成。其实过程非常的简单,应用增加数据-->根据配置的字段构建add的xml文档-->post至solr/update。

应用删除数据à根据配置的索引文档唯一标识符构建delete的xml文档-->post至solr/update。

检索数据à构建查询xml—>get至/solr/select/-->对solr返回的xml进行处理-->页面展现。

具体的xml格式可以在solr网站找到。另外就是solr支持高亮显示,非常方便。

关于中文,solr内核支持UTF-8编码,所以在tomcat里的server.xml需要进行配置

<!--<br /> <br /> Code highlighting produced by Actipro CodeHighlighter (freeware)<br /> http://www.CodeHighlighter.com/<br /> <br /> --> < Connector  port ="8080"  maxHttpHeaderSize ="8192"  URIEncoding ="UTF-8"  … />

另外,向solr Post请求的时候需要转为utf-8编码。对solr 返回的查询结果也需要进行一次utf-8的转码。检索数据时对查询的关键字也需要转码,然后用“+”连接。

<!--<br /> <br /> Code highlighting produced by Actipro CodeHighlighter (freeware)<br /> http://www.CodeHighlighter.com/<br /> <br /> --> String[] array  =  StringUtils.split(query,  null 0 );

        
for  (String str : array) {

            result 
=  result  +  URLEncoder.encode(str,  " UTF-8 " +   " + " ;

        }

 

更多好东西:http://www.lsoba.com

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
当数据量达到TB或PB级的时候,传统关系型数据型已力不从心。在大数据热潮中,推出了NoSQL数据库,这种天生就为分布式存储而设计的技术,尤其以Apache HBase为代表,占领海量数据存储技术的大半壁江山。本教视从实战角度出来,向学员们手把手掌握HBase使用精髓,让学员达到如下目标: 1. 了解分布式存储的原理及架构。 2. 掌握如何使用HBase实现海量数据存储与检索。 3. 掌握HBase在开发中常见的技术大坑与调优技术。 课时1:HBase简介与部署 课时2:HBase架构与索引算法剖析 课时3:HBase建库建表与CRUD实战 课时4:基于HBase Client API的CRUD实战 课时5:批处理与扫描器实战 课时6:使用Ganglia监控HBase 课时7:过滤器实战之比较过滤器 课时8:过滤器实战之专用过滤器与FilterList 课时9:过滤器实战之自定义过滤器 课时10:Observer协处理器实战之Master级别原理剖析 课时11:Observer协处理器实战之Region级别原理剖析 课时12:Observer协处理器实战之表复制应用实战 课时13:Endpoint协处理器实战之原理剖析 课时14:Endpoint协处理器实战之数据统计应用实战 课时15:使用API管理HBase之核心理论 课时16:使用API管理HBase之编程实战 课时17:使用API管理HBase之编程实战(续) 课时18:搭建分布式HBase集群之Hadoop部署 课时19:搭建分布式HBase集群之HBase部署 课时20:sqoop2部署 课时21:使用sqoop2将mysql数据导入到HBase 课时22:集群管理之节点管理与数据任务 课时23:Rowkey设计与集群常见故障处理 课时24:集群调优经验分享 课时25:项目介绍与Solr环境搭建 课时26:数据层设计与中文分词器配置 课时27:Spring集成HBase之核心操作 课时28:Spring集成HBase之核心操作(续) 课时29:基于dom4j进行数据文件解析 课时30:数据层设计与实现之二级索引开发 课时31:数据层设计与实现之二级索引开发(续) 课时32:Spring集成Solrj之入门操作 课时33:Spring集成Solrj之高级操作 课时34:高亮查询功能开发之一 课时35:高亮查询功能开发之二 课时36:课程总结

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值