分词工具 java_IK分词工具的使用(java)

本文介绍了如何在Java中使用IKAnalyzer分词工具,探讨了中文分词面临的问题,如不同场景下分词效果不一、未登录词处理、歧义和多语言混合输入等。通过一个简单的代码示例展示了使用IKAnalyzer进行分词操作,并指出其效果可能不及jieba。文章最后提到自然语言处理和分词技术仍有很大的进步空间。
摘要由CSDN通过智能技术生成

说明

到目前为止,就中文分词工具和中文分词方法而言,分词模型大概有10几个种类,效果较好的并不多,HMM,MMSEG之类的,当然还有深度学习的模型,paddle的模型比较好。按工具名说的话有中科院的nlpir,哈工大的ltp,不知何出的jieba,还有清华北大都有分词工具,还有很多,十几种应该有。所有工具我都看了的效果并不是他们吹嘘的那么好,很多场景都无法正常分词。

主要问题:

同样的词在不同的句子中分词效果不一样;

未登录词,也就是常见的专有名词,无法处理;

歧义句子;

现在语言多国语言混输;

文言文这种,常人无法看懂的文章。

这些问题解决思路:通过Natural Language Understanding和Reinforcement Learning,应该还没人研究出来;

正文

这里用maven,IK分词找不到单独实现的包,因为它实现在lucene所以需要借用lucene-core

org.apache.lucene

lucene-core

8.6.3

com.jianggujin

IKAnalyzer-lucene

8.0.0

java代码,注意包名这里没添加

import org.apache.lucene.analysis.TokenStream;

import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;

im

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值