Solr各个版本下载地址 Index of /dist/lucene/solr (apache.org)(我下载的7.7.3)
下载完之后使用xftp把下载的压缩包上传到服务器并解压.(解压到当前文件夹:tar zxvf xxx.tgz -C ./ )
解压完之后进入到solr-7.7.3/bin 执行./solr start -force命令来启动solr(solr默认端口8983,如何是云服务器记得去安全组开启8983端口).
进入solr-7.7.3/server/solr 创建一个文件夹test-core(随意),之后进入solr7.7.3/solr-7.7.3/server/solr/configsets/_default到该文件夹下复制conf文件到solr-7.7.3/server/solr/test-core下.然后回到浏览器创建core.
默认情况下是可以对英文进行分词的,对于中文是不可以分词的.
接下来要解决的问题就是对中文进行分词,solr安装包有提供Smartcn中文分词jar包,在/solr-7.7.3/contrib/analysis-extras/lucene-libs文件夹下的lucene-analyzers-smartcn-7.7.3.jar包,(其他版本有可能没有这个包,如果没有的话需要去下载中文分词器)把跟这个包复制到/solr-7.7.3/server/solr-webapp/webapp/WEB-INF/lib文件夹下.
然后进入/solr-7.7.3/server/solr/自己的core名称/conf下编辑managed-schema文件,把下面这段复制到managed-schema下.
<fieldType name="text_zh" class="solr.TextField" positionIncrementGap="100">
<analyzer type="index">
<tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
</analyzer>
<analyzer type="query">
<tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
</analyzer>
</fieldType>
修改完配置文件之后重启solr.选中text_zh就可以对中文进行分词.(如果有这个选项但是还不能进行中文分词那就等几分钟)