solr7.0 中文分词+拼音分词

资料准备

solr文件目录(只讲一下7有些变化的目录)

  • web目录 : solr7/server/solr_webapp/webapp/

  • home目录 : solr7/server/solr

  • bin目录 : solr7/bin

创建Core

运行solr

#进入bin目录

$ cd ./solr7/bin

#执行solr

$ ./solr start -p 8000   ps: 停止和重启分别是(stop/restart)

创建core

  • 这里有个坑 就是在管理页面上根本创建不起

推荐使用手动创建方法:

# 进入home目录
$ cd ./solr7/server/solr/
# 创建core
$ mkdir test_core
# 进入test_core
$ touch core.properties   (内容是name=your core name)
# 创建文件目录
$ mkdir data
#拷贝一个conf到你的core下面
$ cp -r ./configsets/sample_techproducts_configs/conf/ ./
# 创建完成 重启solr 进入管理页面  可看到刚创建的core

创建中文分词器

IK分词器:

  • ext.dic为扩展字典
  • stopword.dic为停止词字典
  • IKAnalyzer.cfg.xml为配置文件
  • solr-analyzer-ik-5.1.0.jar ik-analyzer-solr5-5.x.jar为分词jar包。

  • 1:将IK分词器 JAR 包拷贝到solr7/server/solr_webapp/webapp/WEB-INF/lib/

  • 2:将词典 配置文件拷贝到 solr7/server/solr_webapp/webapp/WEB-INF/

  • 3: 更改test_core\conf\managed-schema配置文件

<!-- 我添加的IK分词 -->
<fieldType name="text_ik" class="solr.TextField">
        <analyzer type="index">
            <tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory" useSmart="true"/>
        </analyzer>
        <analyzer type="query">
            <tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory" useSmart="true"/>
        </analyzer>
</fieldType>
  • 重启 测试分词器text_ik 这里不细讲怎么去测试

pinyin分词器

  • 1:将pinyin分词器 JAR 包拷贝到solr7/server/solr_webapp/webapp/WEB-INF/lib/

  • 2: 更改test_core\conf\managed-schema配置文件

<fieldType name="text_pinyin" class="solr.TextField" positionIncrementGap="0">
    <analyzer type="index">
        <tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory"/>
        <filter class="com.shentong.search.analyzers.PinyinTransformTokenFilterFactory" minTermLenght="2" />
        <filter class="com.shentong.search.analyzers.PinyinNGramTokenFilterFactory" minGram="1" maxGram="20" />
    </analyzer>
    <analyzer type="query">
        <tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory"/>
        <filter class="com.shentong.search.analyzers.PinyinTransformTokenFilterFactory" minTermLenght="2" />
        <filter class="com.shentong.search.analyzers.PinyinNGramTokenFilterFactory" minGram="1" maxGram="20" />
    </analyzer>
</fieldType>
  • 重启 测试分词器text_pinyin 这里不细讲怎么去测试
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阳十三

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值