文本分词——anjs

anjs

转载:https://blog.csdn.net/bitcarmanlee/article/details/53607776



前言

这是一个基于n-Gram+CRF+HMM的中文分词的java实现. 分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上 目前实现了.中文分词. 中文姓名识别 . 用户自定义词典,关键字提取,自动摘要,关键字标记等功能 可以应用到自然语言处理等方面,适用于对分词效果要求高的各种项目.

一、引入依赖包

compile group: 'org.ansj' ,name: 'ansj_seg' ,version: '5.1.3'

二、测试代码

public class AnsjTest {


    public static void main(String[] args) {
        //初始化分词器
        StopRecognition filter = new StopRecognition();
        List<String> stopWordList = new ArrayList<>();
        try {
            InputStream is = AnsjTest.class.getClassLoader().getResourceAsStream("stop_word.txt");
            InputStreamReader inputStreamReader = new InputStreamReader(is, "utf-8");
            BufferedReader br = new BufferedReader(inputStreamReader);
            String line = null;
            while ((line = br.readLine())!= null){
                stopWordList.add(line);
            }
        }catch (Exception e){
            e.printStackTrace();
        }
        //过滤停词
        filter.insertStopWords(stopWordList);
        //需要分词的原文
        String str = "欢迎使用ansj_seg,(ansj中文分词)在这里如果你遇到什么问题都可以联系我.我一定尽我所能.帮助大家.ansj_seg更快,更准,更自由!" ;
        //分词结果的一个封装,主要是一个List<Term>的terms
        Result result = ToAnalysis.parse(str).recognition(filter);
        System.out.println(result.getTerms());
        //拿到terms
        List<Term> terms = result.getTerms();
        //遍历获取
        terms.forEach(item ->{
            System.out.println("RealName:"+item.getRealName());
            System.out.println("NatureStr:"+item.getNatureStr());
            System.out.println("Name:"+item.getName());
            System.out.println("Offe:"+item.getOffe());
            System.out.println("**********************");
        });
        
    }
}

三、停词文本(stop_word.txt)

,
?
、
。
“
”
《
》
!
,
:
;
?

人民
末##末
...

四、测试结果

[欢迎/v, 使用/v, ansj/en, seg/en, ansj/en, 中文/nz, 分词/n, 遇到/v, 问题/n, 联系/v, 一定/d, 帮助/v, ansj/en, seg/en, 准/a, 自由/a]
信息: init ngram ok use time :263
RealName:欢迎
NatureStr:v
Name:欢迎
Offe:0
**********************
RealName:使用
NatureStr:v
Name:使用
Offe:2
**********************
RealName:ansj
NatureStr:en
Name:ansj
Offe:4
**********************
RealName:seg
NatureStr:en
Name:seg
Offe:9
**********************
RealName:ansj
NatureStr:en
Name:ansj
Offe:14
**********************
RealName:中文
NatureStr:nz
Name:中文
Offe:18
**********************
RealName:分词
NatureStr:n
Name:分词
Offe:20
**********************
RealName:遇到
NatureStr:v
Name:遇到
Offe:29
**********************
RealName:问题
NatureStr:n
Name:问题
Offe:33
**********************
RealName:联系
NatureStr:v
Name:联系
Offe:38
**********************
RealName:一定
NatureStr:d
Name:一定
Offe:43
**********************
RealName:帮助
NatureStr:v
Name:帮助
Offe:50
**********************
RealName:ansj
NatureStr:en
Name:ansj
Offe:55
**********************
RealName:seg
NatureStr:en
Name:seg
Offe:60
**********************
RealName:准
NatureStr:a
Name:准
Offe:67
**********************
RealName:自由
NatureStr:a
Name:自由
Offe:70
**********************

五、词性

# 1. 名词  (1个一类,7个二类,5个三类)
名词分为以下子类:
n 名词
nr 人名
nr1 汉语姓氏
nr2 汉语名字
nrj 日语人名
nrf 音译人名
ns 地名
nsf 音译地名
nt 机构团体名
nz 其它专名
nl 名词性惯用语
ng 名词性语素
nw 新词
# 2. 时间词(1个一类,1个二类)
t 时间词
tg 时间词性语素
# 3. 处所词(1个一类)
s 处所词
# 4. 方位词(1个一类)
f 方位词
# 5. 动词(1个一类,9个二类)
v 动词
vd 副动词
vn 名动词
vshi 动词“是”
vyou 动词“有”
vf 趋向动词
vx 形式动词
vi 不及物动词(内动词)
vl 动词性惯用语
vg 动词性语素
# 6. 形容词(1个一类,4个二类)
a 形容词
ad 副形词
an 名形词
ag 形容词性语素
al 形容词性惯用语
# 7. 区别词(1个一类,2个二类)
b 区别词
bl 区别词性惯用语
# 8. 状态词(1个一类)
z 状态词
# 9. 代词(1个一类,4个二类,6个三类)
r 代词
rr 人称代词
rz 指示代词
rzt 时间指示代词
rzs 处所指示代词
rzv 谓词性指示代词
ry 疑问代词
ryt 时间疑问代词
rys 处所疑问代词
ryv 谓词性疑问代词
rg 代词性语素
# 10. 数词(1个一类,1个二类)
m 数词
mq 数量词
# 11. 量词(1个一类,2个二类)
q 量词
qv 动量词
qt 时量词
# 12. 副词(1个一类)
d 副词
# 13. 介词(1个一类,2个二类)
p 介词
pba 介词“把”
pbei 介词“被”
# 14. 连词(1个一类,1个二类)
c 连词
 cc 并列连词
# 15. 助词(1个一类,15个二类)
u 助词
uzhe 着
ule 了 喽
uguo 过
ude1 的 底
ude2 地
ude3 得
usuo 所
udeng 等 等等 云云
uyy 一样 一般 似的 般
udh 的话
uls 来讲 来说 而言 说来
uzhi 之
ulian 连 (“连小学生都会”)
# 16. 叹词(1个一类)
e 叹词
# 17. 语气词(1个一类)
y 语气词(delete yg)
# 18. 拟声词(1个一类)
o 拟声词
# 19. 前缀(1个一类)
h 前缀
# 20. 后缀(1个一类)
k 后缀
# 21. 字符串(1个一类,2个二类)
x 字符串
 xx 非语素字
 xu 网址URL
# 22. 标点符号(1个一类,16个二类)
w 标点符号
wkz 左括号,全角:( 〔  [  {  《 【  〖〈   半角:( [ { <
wky 右括号,全角:) 〕  ] } 》  】 〗 〉 半角: ) ] { >
wyz 左引号,全角:“ ‘ 『 
wyy 右引号,全角:” ’ 』
wj 句号,全角:。
ww 问号,全角:? 半角:?
wt 叹号,全角:! 半角:!
wd 逗号,全角:, 半角:,
wf 分号,全角:; 半角: ;
wn 顿号,全角:、
wm 冒号,全角:: 半角: :
ws 省略号,全角:……  …
wp 破折号,全角:——   --   ——-   半角:---  ----
wb 百分号千分号,全角:% ‰   半角:%
wh 单位符号,全角:¥ $ £  °  ℃  半角:$

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
中文分词是将一段中文文本按照语义单元进行切分的过程。通常使用算法实现,比如基于规则的方法和基于统计学习的方法等。正确率、召回率和F1是评估中文分词效果的重要指标。 - 正确率(Precision)是指分词结果中正确分词数占所有分词数的比例,即正确分词数 / 分词器分出的总词数。 - 召回率(Recall)是指分词结果中正确分词数占所有正确词数的比例,即正确分词数 / 应分出的总词数。 - F1值是综合考虑正确率和召回率的指标,其计算公式为:2 * Precision * Recall / (Precision + Recall)。 在Python中,可以使用第三方库如jieba来实现中文分词,并计算正确率、召回率和F1值。需要准备好分词测试集和标准答案,然后通过代码计算这些指标。以下是一个简单的例子: ```python import jieba # 读取测试集和标准答案 with open('test_set.txt', 'r', encoding='utf-8') as f: test_set = f.readlines() with open('standard_answer.txt', 'r', encoding='utf-8') as f: standard_answer = f.readlines() # 分别记录正确分词数、应分出的总词数和所有正确词数 correct_word_count = 0 total_word_count = 0 all_correct_word_count = 0 # 遍历测试集并进行分词,同时统计指标 for i in range(len(test_set)): words = jieba.lcut(test_set[i].strip()) standard_words = standard_answer[i].strip().split() for word in words: if word in standard_words: correct_word_count += 1 all_correct_word_count += 1 total_word_count += len(words) # 计算正确率、召回率和F1值 precision = correct_word_count / total_word_count recall = all_correct_word_count / total_word_count f1 = 2 * precision * recall / (precision + recall) print("Precision:", precision) print("Recall:", recall) print("F1:", f1) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值