Solr搜索引擎 — 查询命令和两种中文分词使用

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u011142688/article/details/90515134

已经和mysql建立好了关联,可以查询和更新mysql的数据量,接下来就是进阶的使用方式了

附上:

喵了个咪的博客:http://w-blog.cn

Solr官网:http://lucene.apache.org/solr/

PS:8.0.0版本已经发布,本文使用此时较为稳定的7.7.1版本

一,查询命令的基本使用

基本查询方式

  q 查询的关键字,此参数最为重要,例如,q=id:1,默认为q=*:*,
  fl 指定返回哪些字段,用逗号或空格分隔,注意:字段区分大小写,例如,fl= id,title,sort
  start 返回结果的第几条记录开始,一般分页用,默认0开始
  rows 指定返回结果最多有多少条记录,默认值为 10,配合start实现分页
  sort 排序方式,例如id desc 表示按照 “id” 降序
  wt (writer type)指定输出格式,有 xml, json, php等
  fq (filter query)过虑查询,提供一个可选的筛选器查询。返回在q查询符合结果中同时符合的fq条件的查询结果,例如:q=id:1&fq=sort:[1 TO 5],找关键字id为1 的,并且sort是1到5之间的。
  df 默认的查询字段,一般默认指定。
  qt (query type)指定那个类型来处理查询请求,一般不用指定,默认是standard。
  indent 返回的结果是否缩进,默认关闭,用 indent=true|on 开启,一般调试json,php,phps,ruby输出才有必要用这个参数。
  version 查询语法的版本,建议不使用它,由服务器指定默认值。

检索运算符

  “:” 指定字段查指定值,如返回所有值*:*
  “?” 表示单个任意字符的通配
  “*” 表示多个任意字符的通配(不能在检索的项开始使用*或者?符号)
  “~” 表示模糊检索,如检索拼写类似于”roam”的项这样写:roam~将找到形如foam和roams的单词;roam~0.8,检索返回相似度在0.8以上的记录。
  AND、|| 布尔操作符
  OR、&& 布尔操作符
  NOT、!、-(排除操作符不能单独与项使用构成查询)
  “+” 存在操作符,要求符号”+”后的项必须在文档相应的域中存在²
  ( ) 用于构成子查询
  [] 包含范围检索,如检索某时间段记录,包含头尾,date:[201507 TO 201510]
  {} 不包含范围检索,如检索某时间段记录,不包含头尾date:{201507 TO 201510}

二、IK中文分词

下载版本匹配的IK分词jar包

> cd server/solr-webapp/webapp/WEB-INF/lib
> wget https://search.maven.org/remotecontent?filepath=com/github/magese/ik-analyzer/7.7.1/ik-analyzer-7.7.1.jar -O ./ik-analyzer-7.7.1.jar 
> wget https://search.maven.org/remotecontent?filepath=com/github/magese/ik-analyzer-solr7/7.x/ik-analyzer-solr7-7.x.jar -O ./ik-analyzer-solr7-7.x.jar 

定义fieldType对应IK分词

> vim server/solr/new_core/conf/managed-schema

<!-- 257行ik分词器 -->
<fieldType name="text_ik" class="solr.TextField">
  <analyzer type="index">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
  <analyzer type="query">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
</fieldType>

修改app_name 的 field类型

<field name="appName" type="text_ik" indexed="true" stored="true" />

然后重启solr

> solr restart -force

分词效果

这个时候去查询数据还是无法实现分词查询,需要重新初始化数据

查询时候就有分词的效果了

三、Solr自带中文分词

自带中文分词

> cp contrib/analysis-extras/lucene-libs/lucene-analyzers-smartcn-7.7.1.jar  server/solr-webapp/webapp/WEB-INF/lib

配置自带分词fieldType

> vim server/solr/new_core/conf/managed-schema

<!-- 自带分词器 -->
<fieldType name="text_hmm_chinese" class="solr.TextField" positionIncrementGap="100">
  <analyzer type="index">
    <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
  </analyzer>
  <analyzer type="query">
    <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
  </analyzer>
</fieldType>

自带分词效果(对比IK的词汇量是比自带的多的还支持扩展词汇)

展开阅读全文

没有更多推荐了,返回首页