solr教程

Solr调研总结:

开发类型

全文检索相关开发

Solr版本

4.2

文件内容

本文介绍solr的功能使用及相关注意事项;主要包括以下内容:环境搭建及调试;两个核心配置文件介绍;维护索引;查询索引,和在查询中可以应用的高亮显示、拼写检查、搜索建议、分组统计、拼音检索等功能的使用方法。

版本

作者/修改人

日期

V1.0

gzk

2013-06-04

1. Solr 是什么?

Solr它是一种开放源码的、基于 Lucene Java 的搜索服务器,易于加入到 Web 应用程序中。Solr 提供了层面搜索(就是统计)、命中醒目显示并且支持多种输出格式(包括XML/XSLT 和JSON等格式)。它易于安装和配置,而且附带了一个基于HTTP 的管理界面。可以使用 Solr 的表现优异的基本搜索功能,也可以对它进行扩展从而满足企业的需要。Solr的特性包括:

  • 高级的全文搜索功能
  • 专为高通量的网络流量进行的优化
  • 基于开放接口(XML和HTTP)的标准
  • 综合的HTML管理界面
  • 可伸缩性-能够有效地复制到另外一个Solr搜索服务器
  • 使用XML配置达到灵活性和适配性
  • 可扩展的插件体系

2. Lucene 是什么?

Lucene是一个基于Java的全文信息检索工具包,它不是一个完整的搜索应用程序,而是为你的应用程序提供索引和搜索功能。Lucene 目前是 Apache Jakarta(雅加达) 家族中的一个开源项目。也是目前最为流行的基于Java开源全文检索工具包。目前已经有很多应用程序的搜索功能是基于 Lucene ,比如Eclipse 帮助系统的搜索功能。Lucene能够为文本类型的数据建立索引,所以你只要把你要索引的数据格式转化的文本格式,Lucene 就能对你的文档进行索引和搜索。

3. Solr vs Lucene

Solr与Lucene 并不是竞争对立关系,恰恰相反Solr 依存于Lucene,因为Solr底层的核心技术是使用Lucene 来实现的,Solr和Lucene的本质区别有以下三点:搜索服务器,企业级和管理。Lucene本质上是搜索库,不是独立的应用程序,而Solr是。Lucene专注于搜索底层的建设,而Solr专注于企业应用。Lucene不负责支撑搜索服务所必须的管理,而Solr负责。所以说,一句话概括 Solr: Solr是Lucene面向企业搜索应用的扩展。

Solr与Lucene架构图:

Solr使用Lucene并且扩展了它!

  • 一个真正的拥有动态字段(Dynamic Field)和唯一键(Unique Key)的数据模式(Data Schema)
  • 对Lucene查询语言的强大扩展!
  • 支持对结果进行动态的分组和过滤
  • 高级的,可配置的文本分析
  • 高度可配置和可扩展的缓存机制
  • 性能优化
  • 支持通过XML进行外部配置
  • 拥有一个管理界面
  • 可监控的日志
  • 支持高速增量式更新(Fast incremental Updates)和快照发布(Snapshot Distribution)

4.搭建并调试Solr

4.1 安装虚拟机

Solr 必须运行在Java1.6 或更高版本的Java 虚拟机中,运行标准Solr 服务只需要安装JRE 即可,但如果需要扩展功能或编译源码则需要下载JDK 来完成。可以通过下面的地址下载所需JDK 或JRE :

安装 步骤请参考相应的帮助文档。

4.2下载Solr

本文针对Solr4.2版本进行调研的,下文介绍内容均针对Solr4.2版本,如与Solr 最新版本有出入请以官方网站内容为准。Solr官方网站下载地址:http://lucene.apache.org/solr/

4.3下载并设置Apache Ant

Solr是使用Ant进行管理的源码, Ant是一种基于Java的build工具。理论上来说,它有些类似于Maven 或者是 C中的make。下载后解压出来后,进行环境变量设置。

ANT_HOME:E:\Work\apache-ant\1.9.1 (这里为你自己解压缩的目录) PATH:%ANT_HOME%\bin (这个设置是为了方便在dos环境下操作)

查看是否安装成功,在命令行窗口中输入命令ant,若出现结果:



说明ant安装成功!因为ant默认运行build.xml文件,这个文件需要我们建立。现在就可以进行build Solr源码了。在命令行窗口中进入到你的Solr源码目录,输入ant会出现当前build.xml使用提示信息。

其它的先不用管它,我们只要针对我们使用的IDE进行build就行了,如果使用eclipse就在命令行输入:ant eclipse.如果使用IntelliJ IDEA 就在命令行输入:ant idea。这样就能进行build了。

黑窗口里提示这个。。。

失败。。。为什么呢,最后我发现是因为下载的ant中少了一个jar就是这apache-ivy(下载地址:http://ant.apache.org/ivy/)这东东名子真怪 ivy是ant管理jar依赖关系的。当第一次bulid时ivy会自动把build中的缺少的依赖进行下载。网速慢的第一次build要好久的。。。

下载一个jar就行把jar放到ant的lib下(E:\Work\apache-ant\1.9.1\lib)这样再次运行ant 就会成功了。到现在才可以进行Solr的代码调试。

4.4配置并运行Solr代码

不管用什么IDE首选都要设置Solr Home在IDE的JVM参数设置VM arguments写入 -Dsolr.solr.home=solr/example/solr一般就行了.不行也可以使用绝对路径.

solr使用StartSolrJetty文件作为入口文件进行调试代码,在这里可以设置服务器使用的端口和solr的webapps目录.一般都不用设置,默认的就可以进行调试.Solr Home也能可在代码中设置一样好用.  System.setProperty("solr.solr.home", "E:\\Work\\solr-4.2.0-src-idea\\solr\\example\\solr");

目前是使用自带的一个example作为solr配置的根目录,如果你有其他的solr配置目录,设置之即可。点击run即可,debug也是一样可以用了。没有别的问题就应该能运行了.注意servlet 容器使用的端口,如查提示:

FAILED SocketConnector@0.0.0.0:8983: java.net.BindException: Address already in use: JVM_Bind 就说明当前端口占用中.改一下就可以了.如果没有报错启动成功后就可以在浏览器中输入地址:http://localhost:8983/solr/ 就可以看到如下界面

到这里Solr就成功配置并运行了.要是想跟代码调试在启动时在这个方法里点断点就可以Initializer的initialize()方法如果想从浏览器中找断点调试就要到SolrDispatchFilter的doFilter方法中点断点了.

注:IE9在兼容模式下有bug,必须设置为非兼容模式。

5.Solr基础

因为 Solr 包装并扩展了Lucene,所以它们使用很多相同的术语。更重要的是,Solr 创建的索引与 Lucene 搜索引擎库完全兼容。通过对 Solr 进行适当的配置,某些情况下可能需要进行编码,Solr 可以阅读和使用构建到其他 Lucene 应用程序中的索引。在 Solr 和 Lucene 中,使用一个或多个 Document 来构建索引。Document 包括一个或多个 Field。Field 包括名称、内容以及告诉 Solr 如何处理内容的元数据。

例如,Field 可以包含字符串、数字、布尔值或者日期,也可以包含你想添加的任何类型,只需用在solr的配置文件中进行相应的配置即可。Field 可以使用大量的选项来描述,这些选项告诉 Solr 在索引和搜索期间如何处理内容。

现在,查看一下表 1 中列出的重要属性的子集:

属性名称

描述

Indexed

Indexed Field 可以进行搜索和排序。你还可以在 indexed Field 上运行 Solr 分析过程,此过程可修改内容以改进或更改结果。

Stored

stored Field 内容保存在索引中。这对于检索和醒目显示内容很有用,但对于实际搜索则不是必需的。例如,很多应用程序存储指向内容位置的指针而不是存储实际的文件内容。

5.1模式配置Schema.xml

schema.xml这个配置文件可以在你下载solr包的安装解压目录的\solr\example\solr\collection1\conf中找到,它就是solr模式关联的文件。打开这个配置文件,你会发现有详细的注释。模式组织主要分为三个重要配置

5.1.1. types 部分

是一些常见的可重用定义,定义了 Solr(和 Lucene)如何处理 Field。也就是添加到索引中的xml文件属性中的类型,如int、text、date等.


      
      
  1. <fieldType name="string" class="solr.StrField" sortMissingLast="true"/>
  2. <fieldType name="boolean" class="solr.BoolField" sortMissingLast="true"/>
  3. <fieldType name="int" class="solr.TrieIntField" precisionStep="0" positionIncrementGap="0"/>

      
      
  1. <fieldType name="text_general" class="solr.TextField" positionIncrementGap="100">
  2. <analyzer type="index">
  3. <tokenizer class="solr.StandardTokenizerFactory"/>
  4. <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" />
  5. <filter class="solr.LowerCaseFilterFactory"/>
  6. </analyzer>
  7. <analyzer type="query">
  8. <tokenizer class="solr.StandardTokenizerFactory"/>
  9. <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" />
  10. <filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/>
  11. <filter class="solr.LowerCaseFilterFactory"/>
  12. </analyzer>
  13. </fieldType>

参数说明:

属性

描述

name

标识而已

class

和其他属性决定了这个fieldType的实际行为。

sortMissingLast

设置成true没有该field的数据排在有该field的数据之后,而不管请求时的排序规则, 默认是设置成false。

sortMissingFirst

跟上面倒过来呗。 默认是设置成false

analyzer

字段类型指定的分词器

type

当前分词用用于的操作.index代表生成索引时使用的分词器query代码在查询时使用的分词器

tokenizer

分词器类

filter

分词后应用的过滤器  过滤器调用顺序和配置相同.

5.1.2. fileds

是你添加到索引文件中出现的属性名称,而声明类型就需要用到上面的types


      
      
  1. <field name="id" type="string" indexed="true" stored="true" required="true" multiValued="false"/>
  2. <field name="path" type="text_smartcn" indexed="false" stored="true" multiValued="false" termVector="true" />
  3. <field name="content" type="text_smartcn" indexed="false" stored="true" multiValued="false" termVector="true"/>
  4. <field name ="text" type ="text_ik" indexed ="true" stored ="false" multiValued ="true"/>
  5. <field name ="pinyin" type ="text_pinyin" indexed ="true" stored ="false" multiValued ="false"/>
  6. <field name="_version_" type="long" indexed="true" stored="true"/>

      
      
  1. <dynamicField name="*_i" type="int" indexed="true" stored="true"/>
  2. <dynamicField name="*_l" type="long" indexed="true" stored="true"/>
  3. <dynamicField name="*_s" type="string" indexed="true" stored="true" />
  • field: 固定的字段设置
  • dynamicField: 动态的字段设置,用于后期自定义字段,*号通配符.例如: test_i就是int类型的动态字段.

还有一个特殊的字段copyField,一般用于检索时用的字段这样就只对这一个字段进行索引分词就行了copyField的dest字段如果有多个source一定要设置multiValued=true,否则会报错的


      
      
  1. <copyField source="content" dest="pinyin"/>
  2. <copyField source="content" dest="text"/>
  3. <copyField source="pinyin" dest="text"/>

字段属性说明:

属性

描述

name

字段类型名

class

java类名

indexed

缺省true。 说明这个数据应被搜索和排序,如果数据没有indexed,则stored应是true。

stored

缺省true。说明这个字段被包含在搜索结果中是合适的。如果数据没有stored,则indexed应是true。

omitNorms

字段的长度不影响得分和在索引时不做boost时,设置它为true。

一般文本字段不设置为true。

termVectors

如果字段被用来做more like this 和highlight的特性时应设置为true。

compressed

字段是压缩的。这可能导致索引和搜索变慢,但会减少存储空间,只有StrField和TextField是可以压缩,这通常适合字段的长度超过200个字符。

multiValued

字段多于一个值的时候,可设置为true。

positionIncrementGap

和multiValued一起使用,设置多个值之间的虚拟空白的数量

注意:_version_ 是一个特殊字段,不能删除,是记录当前索引版本号的.

5.1.3. 其他配置

uniqueKey: 唯一键,这里配置的是上面出现的fileds,一般是id、url等不重复的。在更新、删除的时候可以用到。

defaultSearchField:默认搜索属性,如q=solr就是默认的搜索那个字段

solrQueryParser:查询转换模式,是并且还是或者(AND/OR必须大写)

5.2. solr配置solrconfig.xml

solrconfig.xml这个配置文件可以在你下载solr包的安装解压目录的E:\Work\solr-4.2.0-src-idea\solr\example\solr\collection1\conf中找到,这个配置文件内容有点多,主要内容有:使用的lib配置,包含依赖的jar和Solr的一些插件;组件信息配置;索引配置和查询配置,下面详细说一下索引配置和查询配置.

5.2.1索引indexConfig

       Solr 性能因素,来了解与各种更改相关的性能权衡。 表 1 概括了可控制 Solr 索引处理的各种因素:

属性

描述

useCompoundFile

通过将很多 Lucene 内部文件整合到一个文件来减少使用中的文件的数量。这可有助于减少 Solr 使用的文件句柄数目,代价是降低了性能。除非是应用程序用完了文件句柄,否则 false 的默认值应该就已经足够。

ramBufferSizeMB

在添加或删除文档时,为了减少频繁的更些索引,Solr会选缓存在内存中,当内存中的文件大于设置的值,才会更新到索引库。较大的值可使索引时间变快但会牺牲较多的内存。如两个值同时设置,满足一个就会进行刷新索引.

maxBufferedDocs

mergeFactor

决定低水平的 Lucene 段被合并的频率。较小的值(最小为 2)使用的内存较少但导致的索引时间也更慢。较大的值可使索引时间变快但会牺牲较多的内存。

maxIndexingThreads

indexWriter生成索引时使用的最大线程数

unlockOnStartup

unlockOnStartup 告知 Solr 忽略在多线程环境中用来保护索引的锁定机制。在某些情况下,索引可能会由于不正确的关机或其他错误而一直处于锁定,这就妨碍了添加和更新。将其设置为 true 可以禁用启动锁定,进而允许进行添加和更新。

lockType

single: 在只读索引或是没有其它进程修改索引时使用.

native: 使用操作系统本地文件锁,不能使用多个Solr在同一个JVM中共享一个索引.

simple :使用一个文本文件锁定索引.

5.2.2 查询配置query

属性

描述

maxBooleanClauses

最大的BooleanQuery数量. 当值超出时,抛出 TooManyClausesException.注意这个是全局的,如果是多个SolrCore都会使用一个值,每个Core里设置不一样的化,会使用最后一个的.

filterCache

filterCache存储了无序的lucene document id集合,1.存储了filter queries(“fq”参数)得到的document id集合结果。2还可用于facet查询3. 3)如果配置了useFilterForSortedQuery,那么如果查询有filter,则使用filterCache。

queryResultCache

缓存搜索结果,一个文档ID列表

documentCache

缓存Lucene的Document对象,不会自热

fieldValueCache

字段缓存使用文档ID进行快速访问。默认情况下创建fieldValueCache即使这里没有配置。

enableLazyFieldLoading

若应用程序预期只会检索 Document 上少数几个 Field,那么可以将属性设置为 true。延迟加载的一个常见场景大都发生在应用程序返回和显示一系列搜索结果的时候,用户常常会单击其中的一个来查看存储在此索引中的原始文档。初始的显示常常只需要显示很短的一段信息。若考虑到检索大型 Document 的代价,除非必需,否则就应该避免加载整个文档。

queryResultWindowSize

一次查询中存储最多的doc的id数目.

queryResultMaxDocsCached

查询结果doc的最大缓存数量, 例如要求每页显示10条,这里设置是20条,也就是说缓存里总会给你多出10条的数据.让你点示下一页时很快拿到数据.

listener

选项定义 newSearcher 和 firstSearcher 事件,您可以使用这些事件来指定实例化新搜索程序或第一个搜索程序时应该执行哪些查询。如果应用程序期望请求某些特定的查询,那么在创建新搜索程序或第一个搜索程序时就应该反注释这些部分并执行适当的查询。

useColdSearcher

是否使用冷搜索,为false时使用自热后的searcher

maxWarmingSearchers

最大自热searcher数量

5.3Solr加入中文分词器

     中文分词在solr里面是没有默认开启的,需要我们自己配置一个中文分词器。目前可用的分词器有smartcn,IK,Jeasy,庖丁。其实主要是两种,一种是基于中科院ICTCLAS的隐式马尔科夫HMM算法的中文分词器,如smartcn,ictclas4j,优点是分词准确度高,缺点是不能使用用户自定义词库;另一种是基于最大匹配的分词器,如IK ,Jeasy,庖丁,优点是可以自定义词库,增加新词,缺点是分出来的垃圾词较多。各有优缺点看应用场合自己衡量选择吧。

       下面给出两种分词器的安装方法,任选其一即可,推荐第一种,因为smartcn就在solr发行包的contrib/analysis-extras/lucene-libs/下,就是lucene-analyzers-smartcn-4.2.0.jar,首选在solrconfig.xml中加一句引用analysis-extras的配置,这样我们自己加入的分词器才会引到的solr中.

<lib dir="../../../contrib/analysis-extras/lib" regex=".*\.jar" />
      
      

5.3.1. smartcn 分词器的安装

    首选将发行包的contrib/analysis-extras/lucene-libs/ lucene-analyzers-smartcn-4.2.0.jar复制到\solr\contrib\analysis-extras\lib下,在solr本地应用文件夹下,打开/solr/conf/scheme.xml,编辑text字段类型如下,添加以下代码到scheme.xml中的相应位置,就是找到fieldType定义的那一段,在下面多添加这一段就好啦


      
      
  1. <fieldType name="text_smartcn" class="solr.TextField" positionIncrementGap="0">
  2. <analyzer type="index">
  3. <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>
  4. <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>
  5. </analyzer>
  6. <analyzer type="query">
  7. <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>
  8. <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>
  9. </analyzer>
  10. </fieldType>

       如果需要检索某个字段,还需要在scheme.xml下面的field中,添加指定的字段,用text_ smartcn作为type的名字,来完成中文分词。如 text要实现中文检索的话,就要做如下的配置:

<field name ="text" type ="text_smartcn" indexed ="true" stored ="false" multiValued ="true"/>
      
      

5.3.2. IK 分词器的安装

首选要去下载IKAnalyzer的发行包.下载地址: http://ik-analyzer.googlecode.com/files/IK%20Analyzer%202012FF_hf1.zip.

下载后解压出来文件中的三个复制到\solr\contrib\analysis-extras\lib目录中.

IKAnalyzer2012FF_u1.jar       分词器jar包

IKAnalyzer.cfg.xml                 分词器配置文件

Stopword.dic                           分词器停词字典,可自定义添加内容

复制后就可以像smartcn一样的进行配置scheme.xml了.


      
      
  1. <fieldType name="text_ik" class="solr.TextField">
  2. <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
  3. </fieldType>
<field name ="text" type ="text_ik" indexed ="true" stored ="false" multiValued ="true"/>
      
      

       现在来验证下是否添加成功,首先使用StartSolrJetty来启动solr服务,启动过程中如果配置出错,一般有两个原因:一是配置的分词器jar找不到,也就是你没有复制jar包到\solr\contrib\analysis-extras\lib目前下;二是分词器版本不对导致的分词器接口API不一样出的错,要是这个错的话就在检查分词器的相关文档,看一下支持的版本是否一样.

       如果在启动过程中没有报错的话说明配置成功了.我们可以进入到http://localhost:8983/solr地址进行测试一下刚加入的中文分词器.在首页的Core Selector中选择你配置的Croe后点击下面的Analysis,在Analyse Fieldname / FieldType里选择你刚才设置的字段名称或是分词器类型,在Field Value(index)中输入:中国人,点击右面的分词就行了.

6.Solr功能应用

       我这里主要使用SolrJ进行介绍一下Solr的一些基本应用,使用SolrJ加上EmbeddedSolrServer(嵌入式服务器),方便进行代码跟踪调试.在功能上和其它服务器都是一样的,它们都是继承的SolrServer来提供服务API的. EmbeddedSolrServer优点是不用起http协议,直接加载SolrCore进行操作,性能上应该是最快的,方便用于把Solr单结点服务嵌入到项目中使用.下面开始介绍Solr的功能的应用.EmbeddedSolrServer初始化:


      
      
  1. System.setProperty("solr.solr.home", "E:\\Work\\solr-4.2.0-src\\solr\\example\\solr");
  2. CoreContainer.Initializer initializer = new CoreContainer.Initializer();
  3. CoreContainer coreContainer = initializer.initialize();
  4. SolrServer server = new EmbeddedSolrServer(coreContainer, "");

6.1维护索引

       在一般系统中维护的都是增删改,在Solr中的维护功能是增删和优化功能,在Solr中的修改操作就是先删掉再添加.在做索引维护之前,首先要做的是配置schema.xml主要是按上面章节中的说明设置好字段信息(名称,类型,索引,存储,分词等信息),大概就像在数据库中新建一个表一样.设置好schema.xml就可以进行索引相关操作了.

6.1.1增加索引

       在增加索引之前先可构建好SolrInputDocument对象.主要操作就是给文档添加字段和值.代码如下:


      
      
  1. SolrInputDocument doc = new SolrInputDocument();
  2. doc.setField("id", "ABC");
  3. doc.setField("content", "中华人民共和国");

构建好文档后添加的上面初始化好的server里就行了.


      
      
  1. server.add(doc);
  2. server.commit();//这句一般不用加因为我们可以通过在配置文件中的
  3. //autoCommit来提高性能

       Solr在add文档时.如果文档不存在就直接添加,如果文档存在就删除后添加,这也就是修改功能了.判断文档是否存在的依据是定义好的uniqueKey字段.

6.1.2删除索引

       删除索引可以通过两种方式操作,一种是通过文档ID进行删除,别一种是通过查询到的结果进行删除.

通过ID删除方式代码:


      
      
  1. server.deleteById(id);
  2. //或是使用批量删除
  3. server.deleteById(ids);

通过查询删除方式代码:


      
      
  1. server.deleteByQuery("*.*");//这样就删除了所有文档索引
  2. //”*.*”就查询所有内容的,介绍查询时会详细说明.

6.1.2优化索引

       优化Lucene 的索引文件以改进搜索性能。索引完成后执行一下优化通常比较好。如果更新比较频繁,则应该在使用率较低的时候安排优化。一个索引无需优化也可以正常地运行。优化是一个耗时较多的过程。

  server.optimize();//不要频繁的调用..尽量在无人使用时调用.
      
      

6.2查询索引

       Solr在不修改任务配置的情况下就可以使用查询功能,在web项目中应用可以直接URL进行访问Solr服务器例如 :

http://localhost:8983/solr/ collection1/select?q=*%3A*&wt=xml&indent=true
      
      

       上面的意思就是查询名为collection1的SolrCore的所有内容用xml格式返回并且有缩进。

返回结果如下:


      
      
  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <response>
  3. <lst name="responseHeader">
  4. <int name="status">0 </int>
  5. <int name="QTime">0 </int>
  6. <lst name="params">
  7. <str name="indent">true </str>
  8. <str name="q">*:* </str>
  9. <str name="wt">xml </str>
  10. </lst>
  11. </lst>
  12. <result name="response" numFound="17971" start="0">
  13. <doc>
  14. <str name="path">E:\Reduced\军事\1539.txt </str>
  15. <str name="category_s">2 </str>
  16. <int name="browseCount_i">-1423701734 </int>
  17. <long name="modified_l">1162438568000 </long>
  18. <long name="releasedate_l">1162438568000 </long>
  19. <str name="content"> [俄罗斯lenta网站2006年2月9日报道]俄空军副总司令比热耶夫中将称,2006年春天独联体国家防空系统打击范围向西推进150千米,侦察范围向西推进400千米。  2006年3月白俄罗斯4个S-300PS防空导弹营担负战斗任务,使独联体防空系统作战范围得以向西推进。比热耶夫中将还宣布,近期乌兹别克斯坦可能加入独联体防空系统。  独联体国家防空系统建于9年前,共有9个国家参加该组织。目前只有亚美尼亚、白俄罗斯、哈萨克斯坦、吉尔吉斯、俄罗斯和塔吉克斯坦支持该体系。  乌克兰、乌兹别克斯坦与俄罗斯在双边基础上合作,格鲁吉亚和土库曼最近7年不参加独联体国家对空防御。 </str>
  20. <str name="id">E3798D82-EAB6-2BEA-D7E2-79FBD102E845 </str>
  21. <long name="_version_">1436361868021071872 </long> </doc>
  22. </result>
  23. </response>

上面所看到的就是用xml格式返回的查询结果,其中的doc就是一个文档,在doc里面的那个就是我们开始在schema.xml中定义的字段.

如果使用SolrJ进行调用的话代码如下:


      
      
  1. SolrQuery query = new SolrQuery();
  2. query.set("q","*.*");
  3. QueryResponse rsp =server.query(query)
  4. SolrDocumentList list = rsp.getResults();

返回结果在SolrDocumentList中在这个对象中遍历取出值来:


      
      
  1. for (int i = 0; i < list.size(); i++) {
  2. SolrDocument sd = list.get(i);
  3. String id = (String) sd.getFieldValue("id");
  4. System.out.println(id);
  5. }

6.2.1查询参数

名称

描述

q

查询字符串,必须的。

fq

filter query。使用Filter Query可以充分利用Filter Query Cache,提高检索性能。作用:在q查询符合结果中同时是fq查询符合的,例如:q=mm&fq=date_time:[20081001 TO 20091031],找关键字mm,并且date_time是20081001到20091031之间的。

fl

field list。指定返回结果字段。以空格“ ”或逗号“,”分隔。

start

用于分页定义结果起始记录数,默认为0。

rows

用于分页定义结果每页返回记录数,默认为10。

sort

排序,格式:sort=<field name>+<desc|asc>[,<field name>+<desc|asc>]… 。示例:(inStock desc, price asc)表示先 “inStock” 降序, 再 “price” 升序,默认是相关性降序。

df

默认的查询字段,一般默认指定。

q.op

覆盖schema.xml的defaultOperator(有空格时用"AND"还是用"OR"操作逻辑),一般默认指定。必须大写

wt

writer type。指定查询输出结构格式,默认为“xml”。在solrconfig.xml中定义了查询输出格式:xml、json、python、ruby、php、phps、custom。

qt

query type,指定查询使用的Query Handler,默认为“standard”。

explainOther

设置当debugQuery=true时,显示其他的查询说明。

defType

设置查询解析器名称。

timeAllowed

设置查询超时时间。

omitHeader

设置是否忽略查询结果返回头信息,默认为“false”。

indent

返回的结果是否缩进,默认关闭,用 indent=true|on 开启,一般调试json,php,phps,ruby输出才有必要用这个参数。

version

查询语法的版本,建议不使用它,由服务器指定默认值。

debugQuery

设置返回结果是否显示Debug信息。

6.2.2查询语法


      
      
  1. 1.匹配所有文档:*:*
  2. 2.强制、阻止和可选查询:
  3. 1) Mandatory:查询结果中必须包括的( for example, only entry name containing the word make)
  4. Solr/Lucene Statement:+make, +make +up ,+make +up +kiss
  5. 2) prohibited:( for example, all documents except those with word believe)
  6. Solr/Lucene Statement:+make +up -kiss
  7. 3) optional:
  8. Solr/Lucene Statement:+make +up kiss
  9. 3.布尔操作: ANDORNOT布尔操作(必须大写)与Mandatory、optional和prohibited相似。
  10. 1) make AND up = +make +up : AND左右两边的操作都是mandatory
  11. 2) make || up = make OR up=make up : OR左右两边的操作都是optional
  12. 3) +make +up NOT kiss = +make +up –kiss
  13. 4) make AND up OR french AND Kiss不可以达到期望的结果,因为 AND两边的操作都是mandatory的。
  14. 4. 子表达式查询(子查询):可以使用“()”构造子查询。
  15. 示例:(make AND up) OR (french AND Kiss)
  16. 5.子表达式查询中阻止查询的限制:
  17. 示例:make (-up):只能取得make的查询结果;要使用make (-up *:*)查询make或者不包括up的结果。
  18. 6.多字段fields查询:通过字段名加上分号的方式(fieldName:query)来进行查询
  19. 示例:entryNm:make AND entryId: 3cdc86e8e0fb4da8ab17caed42f6760c
  20. 7.通配符查询(wildCard Query):
  21. 1) 通配符?和*:“*”表示匹配任意字符;“?”表示匹配出现的位置。
  22. 示例:ma?*(ma后面的一个位置匹配),ma??*(ma后面两个位置都匹配)
  23. 2) 查询字符必须要小写:+Ma +be**可以搜索到结果;+Ma +Be**没有搜索结果.
  24. 3) 查询速度较慢,尤其是通配符在首位:主要原因一是需要迭代查询字段中的每个term,判断是否匹配;二是匹配上的term被加到内部的查询,当terms数量达到 1024的时候,查询会失败。
  25. 4) Solr中默认通配符不能出现在首位(可以修改QueryParser,设置
  26. setAllowLeadingWildcard为 true
  27. 5) set setAllowLeadingWildcard to true.
  28. 8.模糊查询、相似查询:不是精确的查询,通过对查询的字段进行重新插入、删除和转换来取得得分较高的查询解决(由Levenstein Distance Algorithm算法支持)。
  29. 1) 一般模糊查询:示例:make-believ~
  30. 2) 门槛模糊查询:对模糊查询可以设置查询门槛,门槛是 0~ 1之间的数值,门槛越高表面相似度越高。示例:make-believ~ 0.5、make-believ~ 0.8、make-believ~ 0.9
  31. 9.范围查询(Range Query):Lucene支持对数字、日期甚至文本的范围查询。结束的范围可以使用“*”通配符。
  32. 示例:
  33. 1) 日期范围(ISO -8601 时间GMT):sa_type: 2 AND a_begin_date:[ 1990 -01 -01T00: 00: 00.000Z TO 1999 -12 -31T24: 59: 99.999Z]
  34. 2) 数字:salary:[ 2000 TO *]
  35. 3) 文本:entryNm:[a TO a]
  36. 10.日期匹配: YEAR, MONTH, DAY, DATE (synonymous with DAY) HOUR, MINUTE, SECOND, MILLISECOND, and MILLI (synonymous with MILLISECOND)可以被标志成日期。
  37. 示例:
  38. 1) r_event_date:[* TO NOW -2 YEAR]: 2年前的现在这个时间
  39. 2) r_event_date:[* TO NOW/ DAY -2 YEAR]: 2年前前一天的这个时间

6.2.3函数查询(Function Query)

       函数查询 可以利用 numeric字段的值 或者 与字段相关的的某个特定的值的函数,来对文档进行评分。


      
      
  1. 1. 使用函数查询的方法
  2. 这里主要有三种方法可以使用函数查询,这三种s方法都是通过solr http接口的。
  3. 1) 使用FunctionQParserPlugin。ie: q={!func}log(foo)
  4. 2) 使用“_val_”内嵌方法
  5. 内嵌在正常的solr查询表达式中。即,将函数查询写在 q这个参数中,这时候,我们使用“_val_”将函数与其他的查询加以区别。
  6. ie:entryNm:make && _val_:ord(entryNm)
  7. 3) 使用dismax中的bf参数
  8. 使用明确为函数查询的参数,比如说dismax中的bf(boost function)这个参数。 注意:bf这个参数是可以接受多个函数查询的,它们之间用空格隔开,它们还可以带上权重。所以,当我们使用bf这个参数的时候,我们必须保证单个函数中是没有空格出现的,不然程序有可能会以为是两个函数。
  9. 示例:
  10. q=dismax&bf="ord(popularity)^0.5 recip(rord(price),1,1000,1000)^0.3
  11. 2. 函数的格式(Function Query Syntax)
  12. 目前,function query 并不支持 a+b 这样的形式,我们得把它写成一个方法形式,这就是 sum(a,b).
  13. 3. 使用函数查询注意事项
  14. 1) 用于函数查询的field必须是被索引的;
  15. 2) 字段不可以是多值的(multi-value)
  16. 4. 可以利用的函数 (available function)
  17. 1) constant:支持有小数点的常量; 例如:1.5 ;SolrQuerySyntax:_val_:1.5
  18. 2) fieldvalue:这个函数将会返回numeric field的值,这个字段必须是indexd的,非multiValued的。格式很简单,就是该字段的名字。如果这个字段中没有这样的值,那么将会返回0。
  19. 3) ord:对于一个字段,它所有的值都将会按照字典顺序排列,这个函数返回你要查询的那个特定的值在这个顺序中的排名。这个字段,必须是非multiValued的,当没有值存在的时候,将返回0。例如:某个特定的字段只能去三个值,“apple”、“banana”、“pear”,那么ord(“apple”)=1,ord(“banana”)=2,ord(“pear”)=3.需要注意的是,ord()这个函数,依赖于值在索引中的位置,所以当有文档被删除、或者添加的时候,ord()的值就会发生变化。当你使用MultiSearcher的时候,这个值也就是不定的了。
  20. 4) rord:这个函数将会返回与ord相对应的倒排序的排名。
  21. 格式: rord(myIndexedField)。
  22. 5) sum:这个函数的意思就显而易见啦,它就是表示“和”啦。
  23. 格式:sum(x,1) 、sum(x,y)、 sum(sqrt(x),log(y),z,0.5)
  24. 6) product:product(x,y,...)将会返回多个函数的乘积。格式:product(x,2)、product(x,y)
  25. 7) div:div(x,y)表示x除以y的值,格式:div(1,x)、div(sum(x,100),max(y,1))
  26. 8) pow:pow表示幂值。pow(x,y) =x^y。例如:pow(x,0.5) 表示开方pow(x,log(y))
  27. 9) abs:abs(x)将返回表达式的绝对值。格式:abs(-5)、 abs(x)
  28. 10) log:log(x)将会返回基数为10,x的对数。格式: log(x)、 log(sum(x,100))
  29. 11) Sqrt:sqrt(x) 返回 一个数的平方根。格式:sqrt(2)、sqrt(sum(x,100))
  30. 12) Map:如果 x>=min,且x <=max,那么map(x,min,max,target)=target.如果 x不在[min,max]这个区间内,那么map(x,min,max,target)=x.
  31. 格式: map ( x , 0 , 0 , 1 )
  32. 13 ) Scale scale ( x , minTarget , maxTarget ) 这个函数将会把 x 的值限制在[ minTarget , maxTarget ]范围内。
  33. 14 ) query query ( subquery , default )将会返回给定 subquery 的分数,如果 subquery 与文档不匹配,那么将会返回默认值。任何的查询类型都是受支持的。可以通过引用的方式,也可以直接指定查询串。
  34. 例子: q = product(popularity, query ({! dismax v = 'solr rocks' }) 将会返回 popularity 和通过 dismax 查询得到的分数的乘积。
  35. q = product(popularity, query ($ qq )& qq = {!dismax}solr rocks 跟上一个例子的效果是一样的。不过这里使用的是引用的方式
  36. q = product(popularity, query ($ qq , 0.1 )& qq = {!dismax}solr rocks 在前一个例子的基础上又加了一个默认值。
  37. 15 ) linear inear ( x , m , c )表示 m * x + c ,其中 m c 都是常量, x 是一个变量也可以是一个函数。例如: linear ( x , 2 , 4 )= 2*x+4.
  38. 16 ) Recip recip ( x , m , a , b )= a/(m*x+b)其中,m、a、b是常量,x是变量或者一个函数。当a = b,并且x >=0的时候,这个函数的最大值是1,值的大小随着x的增大而减小。例如:recip(rord(creationDate),1,1000,1000)
  39. 17) Max: max(x,c)将会返回一个函数和一个常量之间的最大值。
  40. 例如:max(myfield,0)

6.3高亮显示

      我们经常使用搜索引擎,比如在baidu 搜索 java ,会出现如下结果,结果中与关键字匹配的地方是红色显示与其他内容区别开来。

solr 默认已经配置了highlight 组件(详见 SOLR_HOME/conf/sorlconfig.xml)。通常我出只需要这样请求http://localhost:8983/solr/ collection1 /select? q=%E4%B8%AD%E5%9B%BD&start=0&rows=1&fl=content+path+&wt=xml&indent=true&hl=true&hl.fl=content

       可以看到与比一般的请求多了两个参数 "hl=true" 和 "hl.fl= content " 。

"hl=true" 是开启高亮,"hl.fl= content " 是告诉solr 对 name 字段进行高亮(如果你想对多个字段进行高亮,可以继续添加字段,字段间用逗号隔开,如 "hl.fl=name,name2,name3")。 高亮内容与关键匹配的地方,默认将会被 "<em>" 和 "</em>" 包围。还可以使用hl.simple.pre" 和 "hl.simple.post"参数设置前后标签.

查询结果如下:


      
      
  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <response>
  3. <lst name="responseHeader">
  4. <int name="status">
  5. 0
  6. </int>
  7. <int name="QTime">
  8. 2
  9. </int>
  10. <lst name="params">
  11. <str name="fl">
  12. content path
  13. </str>
  14. <str name="indent">
  15. true
  16. </str>
  17. <str name="start">
  18. 0
  19. </str>
  20. <str name="q">
  21. 中国
  22. </str>
  23. <str name="hl.simple.pre"> <em> </str>
  24. <str name="hl.simple.post"> </em> </str>
  25. <str name="hl.fl">
  26. content
  27. </str>
  28. <str name="wt">
  29. xml
  30. </str>
  31. <str name="hl">
  32. true
  33. </str>
  34. <str name="rows">
  35. 1
  36. </str>
  37. </lst>
  38. </lst>
  39. <result name="response" numFound="6799" start="0">
  40. <doc>
  41. <str name="path">
  42. E:\Reduced\IT\630.txt
  43. </str>
  44. <str name="content">
  45.   本报讯 中国银联股份有限公司和中国电信集团日前在北京签署全面战略合作协议。这标志着中国银联和中国电信将在通信服务、信息增值服务、新型支付产品合作开发等领域建立全面合作伙伴关系。  据悉,双方签署的全面战略合作协议主要内容是:中国银联将选择中国电信作为通信信息服务的主要提供商,双方围绕提高中国银联内部通信的水平和销售网络的服务水平开展全面、深入的合作;中国电信选择中国银联作为银行卡转接支付服务的主要提供商,并围绕开发、推广新型支付终端产品和增值服务开展全面合作。(辛华)
  46. </str> </doc>
  47. </result>
  48. <lst name="highlighting">
  49. <lst name="7D919C61-03B3-4B6F-2D10-9E3CC92D2852">
  50. <arr name="content">
  51. <str>
  52.   本报讯
  53. <em>
  54. 中国
  55. </em>
  56. 银联股份有限公司和
  57. <em>
  58. 中国
  59. </em>
  60. 电信集团日前在北京签署全面战略合作协议。这标志着
  61. <em>
  62. 中国
  63. </em>
  64. 银联和
  65. <em>
  66. 中国
  67. </em>
  68. 电信将在通信服务、信息增值服务、新型支付产品合作开发等领域建立全面合作伙伴关系。  据悉,双方签署
  69. </str>
  70. </arr>
  71. </lst>
  72. </lst>
  73. </response>

使用SolrJ方法基本一样也是设置这些个参数,只不过是SolrJ封装起来了,代码如下:


      
      
  1. SolrQuery query = new SolrQuery();
  2. query.set("q","*.*");
  3. query.setHighlight(true); // 开启高亮组件
  4. query.addHighlightField("content");// 高亮字段
  5. query.setHighlightSimplePre(PRE_TAG);// 标记
  6. query.setHighlightSimplePost(POST_TAG);
  7. QueryResponse rsp =server.query(query)
  8. //…上面取结果的代码
  9. //取出高亮结果
  10. if (rsp.getHighlighting() != null) {
  11. if (rsp.getHighlighting().get(id) != null) {//先通过结果中的ID到高亮集合中取出文档高亮信息
  12. Map <String, List<String>> map = rsp.getHighlighting().get(id);//取出高亮片段
  13. if (map.get(name) != null) {
  14. for (String s : map.get(name)) {
  15. System.out.println(s);
  16. }
  17. }
  18. }

6.4拼写检查

       首先配置 solrconfig.xml,文件可能已经有这两个元素(如果没有添加即可),需要根据我们自己的系统环境做些适当的修改。


      
      
  1. <searchComponent name="spellcheck" class="solr.SpellCheckComponent">
  2. <str name="queryAnalyzerFieldType">text_spell </str>
  3. <lst name="spellchecker">
  4. <str name="name">direct </str>
  5. <str name="field">spell </str>
  6. <str name="classname">solr.DirectSolrSpellChecker </str>
  7. <str name="distanceMeasure">internal </str>
  8. <float name="accuracy">0.5 </float>
  9. <int name="maxEdits">2 </int>
  10. <int name="minPrefix">1 </int>
  11. <int name="maxInspections">5 </int>
  12. <int name="minQueryLength">2 </int>
  13. <float name="maxQueryFrequency">0.01 </float>
  14. </lst>
  15. </searchComponent>
  16. <requestHandler name="/spell" class="solr.SearchHandler" startup="lazy">
  17. <lst name="defaults">
  18. <str name="spellcheck.dictionary">direct </str>
  19. <str name="spellcheck">on </str>
  20. <str name="spellcheck.collate">true </str>
  21. <str name="spellcheck.collateExtendedResults">true </str>
  22. </lst>
  23. <arr name="last-components">
  24. <str>spellcheck </str>
  25. </arr>
  26. </requestHandler>

配置完成之后,我们进行一下测试,重启Solr后,访问如下链接:

http://localhost:8983/solr/ collection1/spell?wt=xml&indent=true&spellcheck=true&spellcheck.q=%E4%B8%AD%E5%9B%BD


      
      
  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <response>
  3. <lst name="responseHeader">
  4. <int name="status">0 </int>
  5. <int name="QTime">0 </int>
  6. </lst>
  7. <result name="response" numFound="0" start="0"/>
  8. <lst name="spellcheck">
  9. <lst name="suggestions">
  10. <lst name="beijink">
  11. <int name="numFound">1 </int>
  12. <int name="startOffset">0 </int>
  13. <int name="endOffset">3 </int>
  14. <arr name="suggestion">
  15. <str>beijing </str>
  16. </arr>
  17. </lst>
  18. </lst>
  19. </lst>
  20. </response>

使用SolrJ时也同样加入参数就可以


      
      
  1. SolrQuery query = new SolrQuery();
  2. query.set("q","*.*");
  3. query.set("qt", "/spell");
  4. QueryResponse rsp =server.query(query)
  5. //…上面取结果的代码
  6. SpellCheckResponse spellCheckResponse = rsp.getSpellCheckResponse();
  7. if (spellCheckResponse != null) {
  8. String collation = spellCheckResponse.getCollatedResult();
  9. }

6.5检索建议

       检索建议目前是各大搜索的标配应用,主要作用是避免用户输入错误的搜索词,同时将用户引导到相应的关键词搜索上。Solr内置了检索建议功能,它在Solr里叫做Suggest模块.该模块可选择基于提示词文本做检索建议,还支持通过针对索引的某个字段建立索引词库做检索建议。在诸多文档中都推荐使用基于索引来做检索建议,因此我们目前的实现也是采取该方案。

       现在我们开始配置Suggest模块,首先在solrconfig.xml文件中配置Suggest依赖的SpellChecker模块,然后再配置Suggest模块,所以这两个都需要配置。


      
      
  1. <searchComponent name="suggest" class="solr.SpellCheckComponent">
  2. <str name="queryAnalyzerFieldType">string </str>
  3. <lst name="spellchecker">
  4. <str name="name">suggest </str>
  5. <str name="classname">org.apache.solr.spelling.suggest.Suggester </str>
  6. <str name="lookupImpl">org.apache.solr.spelling.suggest.tst.TSTLookup </str>
  7. <str name="field">text </str>
  8. <float name="threshold">0.0001 </float>
  9. <str name="spellcheckIndexDir">spellchecker </str>
  10. <str name="comparatorClass">freq </str>
  11. <str name="buildOnOptimize">true </str>
  12. <!--<str name="buildOnCommit">true</str>-->
  13. </lst>
  14. </searchComponent>
  15. <requestHandler name="/suggest" class="solr.SearchHandler" startup="lazy">
  16. <lst name="defaults">
  17. <str name="spellcheck">true </str>
  18. <str name="spellcheck.dictionary">suggest </str>
  19. <str name="spellcheck.onlyMorePopular">true </str>
  20. <str name="spellcheck.extendedResults">false </str>
  21. <str name="spellcheck.count">10 </str>
  22. <str name="spellcheck.collate">true </str>
  23. </lst>
  24. <arr name="components">
  25. <str>suggest </str>
  26. </arr>
  27. </requestHandler>

配置完成之后,我们进行一下测试,重启Solr后,访问如下链接

http://localhost:8983/solr/ collection1/suggest?wt=xml&indent=true&spellcheck=true&spellcheck.q=%E4%B8%AD%E5%9B%BD


      
      
  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <response>
  3. <lst name="responseHeader">
  4. <int name="status">
  5. 0
  6. </int>
  7. <int name="QTime">
  8. 4
  9. </int>
  10. </lst>
  11. <lst name="spellcheck">
  12. <lst name="suggestions">
  13. <lst name="中国">
  14. <int name="numFound">
  15. 4
  16. </int>
  17. <int name="startOffset">
  18. 0
  19. </int>
  20. <int name="endOffset">
  21. 2
  22. </int>
  23. <arr name="suggestion">
  24. <str>
  25. 中国队
  26. </str>
  27. <str>
  28. 中国证监会
  29. </str>
  30. <str>
  31. 中国足协
  32. </str>
  33. <str>
  34. 中国银行
  35. </str>
  36. </arr>
  37. </lst>
  38. </lst>
  39. </lst>
  40. </response>

使用SolrJ时也同样加入参数就可以:


      
      
  1. SolrQuery query = new SolrQuery();
  2. query.set("q", token);
  3. query.set("qt", "/suggest");
  4. query.set("spellcheck.count", "10");
  5. QueryResponse response = server.query(query);
  6. SpellCheckResponse spellCheckResponse = response.getSpellCheckResponse();
  7. if (spellCheckResponse != null) {
  8. List <SpellCheckResponse.Suggestion> suggestionList = spellCheckResponse.getSuggestions();
  9. for (SpellCheckResponse.Suggestion suggestion : suggestionList) {
  10. List <String> suggestedWordList = suggestion.getAlternatives();
  11. for (int i = 0; i < suggestedWordList.size(); i++) {
  12. String word = suggestedWordList.get(i);
  13. }
  14. }
  15. return results;
  16. }

       通过threshold参数来限制一些不常用的词不出现在智能提示列表中,当这个值设置过大时,可能导致结果太少,需要引起注意。目前主要存在的问题是使用freq排序算法,返回的结果完全基于索引中字符的出现次数,没有兼顾用户搜索词语的频率,因此无法将一些热门词排在更靠前的位置。这块可定制SuggestWordScoreComparator来实现,目前还没有着手做这件事情。

6.6分组统计

       我这里实现分组统计的方法是使用了Solr的Facet组件, Facet组件是Solr默认集成的一个组件.

6.6.1 Facet简介

       Facet是solr的高级搜索功能之一,可以给用户提供更友好的搜索体验.在搜索关键字的同时,能够按照Facet的字段进行分组并统计

6.6.2 Facet字段

1.    适宜被Facet的字段

       一般代表了实体的某种公共属性,如商品的分类,商品的制造厂家,书籍的出版商等等.

2.    Facet字段的要求

       Facet的字段必须被索引.一般来说该字段无需分词,无需存储.

       无需分词是因为该字段的值代表了一个整体概念,如电脑的品牌”联想”代表了一个整     体概念,如果拆成”联”,”想”两个字都不具有实际意义.另外该字段的值无需进行大小       写转换等处理,保持其原貌即可.

       无需存储是因为一般而言用户所关心的并不是该字段的具体值,而是作为对查询结果进     行分组的一种手段,用户一般会沿着这个分组进一步深入搜索.

3.    特殊情况

       对于一般查询而言,分词和存储都是必要的.比如CPU类型”Intel 酷睿2双核 P7570”, 拆分成”Intel”,”酷睿”,”P7570”这样一些关键字并分别索引,可能提供更好的搜索   体验.但是如果将CPU作为Facet字段,最好不进行分词.这样就造成了矛盾,解决方法为, 将CPU字段设置为不分词不存储,然后建立另外一个字段为它的COPY,对这个COPY的       字段进行分词和存储.


      
      
  1. <types>
  2. <fieldType name="string" class="solr.StrField" omitNorms="true"/>
  3. <fieldType name="tokened" class="solr.TextField" >
  4. <analyzer>
  5. ……
  6. </analyzer>
  7. </fieldType>
  8. </types>
  9. <fields>
  10. <field name="cpu" type="string" indexed="true" stored="false"/>
  11. <field name="cpuCopy” type=" tokened" indexed="true" stored="true"/>
  12. </fields>
  13. <copyField source="cpu" dest="cpuCopy"/>

6.6.2 Facet组件

       Solr的默认requestHandler已经包含了Facet组件(solr.FacetComponent).如果自定义requestHandler或者对默认的requestHandler自定义组件列表,那么需要将Facet加入到组件列表中去.


      
      
  1. <requestHandler name="standard" class="solr.SearchHandler" default="true">
  2. ……
  3. <arr name="components">
  4. <str>自定义组件名 </str>
  5. <str>facet </str>
  6. ……
  7. </arr>
  8. </requestHandler>

6.6.2 Facet查询

       进行Facet查询需要在请求参数中加入facet=on或者facet=true只有这样Facet组件才起作用.

1.    Field Facet

Facet字段通过在请求中加入facet.field参数加以声明,如果需要对多个字段进行Facet查询,那么将该参数声明多次.例如:

http://localhost:8983/solr/ collection1/select?q=*%3A*&start=0&rows=1&wt=xml&indent=true&facet=true&facet.field=category_s&facet.field=modified_l

返回结果:


      
      
  1. <?xml version="1.0" encoding="UTF-8"?>
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值