首先到solr下载官网
http://lucene.apache.org/solr/
点击download下载
点击链接下载镜像
解压压缩包
solr7 内嵌jetty 可以直接运行
在bin目录下
使用cmd 运行solr服务
solr start
访问: http://localhost:8983/solr/#/
接下来创建core,在该cmd目录下
solr create -c lhc_core
重启solr,在bin目录下cmd运行如下命令
solr restart -p 8983
再次访问solr服务可以看到创建的lhc_core
接下来配置中文分词器
我在D:\server\solr-7.4.0\contrib\analysis-extras\lucene-libs目录下
复制到
D:\server\solr-7.4.0\server\solr-webapp\webapp\WEB-INF\lib
在D:\server\solr-7.4.0\server\solr\lhc_core\conf中的managed-schema
添加如下内容
<fieldType name="text_cn" class="solr.TextField" positionIncrementGap="100">
<analyzer type="index">
<tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
</analyzer>
<analyzer type="query">
<tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
</analyzer>
</fieldType>
重启solr
可以看到有了新的分词,text_cn
但是我们最常用的还是IK-Analyzer,接下来配配置中文分词器 IK-Analyzer-Solr7
下载jar
在maven的jar仓库中https://search.maven.org/
输入
下载如下的jar包
放入如下位置
D:\server\solr-7.4.0\server\solr-webapp\webapp\WEB-INF\lib
在D:\server\solr-7.4.0\server\solr\lhc_core\conf
添加如下内容
<fieldType name="text_ik" class="solr.TextField">
<analyzer type="index">
<tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" conf="ik.conf" useSmart="false"/>
<filter class="solr.LowerCaseFilterFactory"/>
</analyzer>
<analyzer type="query">
<tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" conf="ik.conf" useSmart="true"/>
<filter class="solr.LowerCaseFilterFactory"/>
</analyzer>
</fieldType>
访问官方的github,https://github.com/magese/ik-analyzer-solr7
在github的resources上下载以下5个文件
其中
ext.dic为扩展字典;
KAnalyzer.cfg.xml为配置文件。
并复制到如下的目录下
D:\server\solr-7.4.0\server\solr-webapp\webapp\WEB-INF\classes
到此,我们就基本配置好了solr