Linux上部署Solr

Solr各个版本下载地址 Index of /dist/lucene/solr (apache.org)(我下载的7.7.3)

 下载完之后使用xftp把下载的压缩包上传到服务器并解压.(解压到当前文件夹:tar zxvf  xxx.tgz -C ./ )

解压完之后进入到solr-7.7.3/bin  执行./solr start -force命令来启动solr(solr默认端口8983,如何是云服务器记得去安全组开启8983端口).

 进入solr-7.7.3/server/solr 创建一个文件夹test-core(随意),之后进入solr7.7.3/solr-7.7.3/server/solr/configsets/_default到该文件夹下复制conf文件到solr-7.7.3/server/solr/test-core下.然后回到浏览器创建core.

 

 默认情况下是可以对英文进行分词的,对于中文是不可以分词的.

 

 接下来要解决的问题就是对中文进行分词,solr安装包有提供Smartcn中文分词jar包,在/solr-7.7.3/contrib/analysis-extras/lucene-libs文件夹下的lucene-analyzers-smartcn-7.7.3.jar包,(其他版本有可能没有这个包,如果没有的话需要去下载中文分词器)把跟这个包复制到/solr-7.7.3/server/solr-webapp/webapp/WEB-INF/lib文件夹下.

然后进入/solr-7.7.3/server/solr/自己的core名称/conf下编辑managed-schema文件,把下面这段复制到managed-schema下.

<fieldType name="text_zh" class="solr.TextField" positionIncrementGap="100">
    <analyzer type="index">
      <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
    </analyzer>
    <analyzer type="query">
      <tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
    </analyzer>
 </fieldType>

 修改完配置文件之后重启solr.选中text_zh就可以对中文进行分词.(如果有这个选项但是还不能进行中文分词那就等几分钟) 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值