solr8学习入门(三)创建core,配置中文分词器

本文基于2019.10.25的solr最新版本solr-8.2.0

colr配置

一、创建core

1、第一种方法:命令行

打开命令行,定位到solr安装目录的bin目录下,我这里是D:\solr-8.2.0\bin。然后输入

//test表示要创建的core名。
solr create -c test
//或者
solr create_core -c test

创建成功后在D:\solr-8.2.0\server\solr目录下就会看到刚刚创建的core的目录
在这里插入图片描述
在solr的主页同样可以看到新建的core:
在这里插入图片描述

2、第二种方式:
1)在D:\solr-8.2.0\server\solr目录下新建文件夹test3,将其作为新的core目录
2)将D:\solr-8.2.0\server\solr\configsets_default目录下的conf文件夹复制到D:\solr- 8.2.0\server\solr\test3目录下
3)在solr的首页创建core:

在这里插入图片描述
至此,core创建成功!

二、配置中文分词器

1、获取分词器jar包

首先,复制solr自带的中文分词器工具包smartcn:
在这里插入图片描述
然后,粘贴该工具包到WEB-INF的lib目录下:
在这里插入图片描述

2、配置分词器

在D:\solr-8.2.0\server\solr\test\conf(test为刚刚创建的core)文件夹下,编辑managed-schema文件:
在这里插入图片描述
在节点中添加配置:

<!-- 中文分词器 -->
<!-- text_cn为该fieldType的唯一标识,每一个field通过type属性绑定到此fieldType,查询时使用在这个fieldType配置的分词器 -->
<fieldType name="text_cn" class="solr.TextField" positionIncrementGap="100">
    <analyzer type="index">
      	<tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
    </analyzer>
	<analyzer type="query">
    	<tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
  	</analyzer>
</fieldType>

三、测试一下分词器

1、配置field

在节点中添加配置:

<!-- text_cn为配置了中文分词器的fieldType -->
<field name="vc_name" type="text_cn" indexed="true" stored="true" required="false" multiValued="false"/>
2、去到solr首页

默认地址:http://192.168.1.229:8983/solr/#/。(ip和端口根据实际情况修改)

1)未使用分词器的效果

在这里插入图片描述

2)使用了分词器的效果

在这里插入图片描述


上一篇:solr8学习入门(二)启动solr服务
下一篇:solr8学习进阶(一)MySql整合

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Solr 9.2.0默认使用Lucene 8.6.0,其自带了一个中文分词SmartChineseAnalyzer。 在Solr配置中文分词的步骤如下: 1. 在solrconfig.xml中配置分词 在schema.xml中定义field时,需要指定使用的分词,例如: ``` <field name="text" type="text_cn" indexed="true" stored="true"/> ``` 在solrconfig.xml中,需要配置text_cn类型的分词,例如: ``` <fieldType name="text_cn" class="solr.TextField"> <analyzer type="index"> <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseTokenizerFactory"/> </analyzer> <analyzer type="query"> <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseTokenizerFactory"/> </analyzer> </fieldType> ``` 其中,tokenizer指定了使用的分词,这里使用的是SmartChineseTokenizerFactory,它是SmartChineseAnalyzer的底层分词。 2. 配置停用词 在solrconfig.xml中,可以配置停用词,在分词时将停用词过滤掉,例如: ``` <filter class="solr.StopFilterFactory" words="stopwords.txt" ignoreCase="true" /> ``` 其中,words指定了停用词文件的路径,可以自己定义。 3. 配置同义词 在solrconfig.xml中,可以配置同义词,在分词时将同义词替换掉,例如: ``` <filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true" /> ``` 其中,synonyms指定了同义词文件的路径,可以自己定义。expand指定是否将同义词扩展,例如"中国, 中国人, 中国人民",如果expand=true,则搜索"中国"时会将其扩展为"中国 中国人 中国人民"。 以上就是在Solr 9.2.0中配置中文分词的基本步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值