文章目录
Springboot项目整合jieba分词,实现语句最精确的切分
1.引入相关依赖
查看远程Maven仓库
本人使用版本:jieba-analysis-1.0.3-SNAPSHOT.jar(可百度自行下载)
将Jar包打到自己的Maven仓库:
mvn install:install-file -DgroupId=com.kd.database -DartifactId=DM6 -Dversion=1.0 -Dfile=D:\桌面\DmJdbcDriver.jar -Dpackaging=jar -DgeneratePom=true
-DgroupId=设置maven的groupId(中央仓库文件存放的地址,E:\mavenrepository\com\kd\database)
-DartifactId=设置maven的artifactId(Jar包所在的文件夹名称)
-Dversion=版本号(1.0)
-Dfile=你需要打入仓库的jar包地址.jar(D:\桌面\DmJdbcDriver.jar)
开始引入依赖:
<dependency>
<groupId>com.kd.huaban</groupId>
<artifactId>jieba-analysis</artifactId>
<version>1.0.3-SNAPSHOT</version>
</dependency>
2.核心代码
相关工具类(JieBaUtil.java)
package com.kd.opt.util;
import com.huaban.analysis.jieba.JiebaSegmenter;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import java.util.List;
/**
* Springboot项目整合jieba分词,实现语句最精确的切分
*
* @author 小辰哥哥
*/
public class JieBaUtil {
// 日志打印
private static final Logger LOGGER = LoggerFactory.getLogger(JieBaUtil.class);
// 初始化操作
private static JiebaSegmenter segmenter = new JiebaSegmenter();
/**
* 获取分词内容
*
* @param words
* @return
* @author 小辰哥哥
*/
public static List<String> getSignaleWord(String words) {
// 匹配分词模板
String[] sentences = new String[]{"/energe.dict.utf8"};
segmenter.initUserDict(sentences);
List<String> resultList = segmenter.sentenceProcess(words);
return resultList;
}
public static void main(String[] args) {
LOGGER.debug("分词集合:" + getSignaleWord("我爱你小辰哥哥"));
}
}
分词模板(energe.dict.utf8,resources目录下面)
开始测试
分词模板为空的情况下(“小辰”与“哥哥”是分开的):
配置分词模板(“小辰哥哥”合并打印):
总结
每天一个提升小技巧!!!