spacy分词器

spacy分词器介绍

spacy使用的中文jieba分词器,接下来对这个分词器进行简单介绍。

分词算法介绍

结巴中文分词涉及到的算法包括:
(1) 基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG);
(2) 采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合;
(3) 对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法。

分词模式介绍

三种分词模式

精确模式:试图将句子中最精确地切开,适合文本分析;
全模式:把句子中所有可能成词的词语都扫描出来,速度很快,但是不能解决歧义的问题;
搜索引擎模式:在精确模式的基础上,对场次再次切分,提高召回率;

import jieba
text = "我是一只小可爱,我喜欢喝汽水"
print("all search")
print(jieba.lcut(text,cut_all=True))
或者:
print([i for i in jieba.cut(text,cut_all=True)])

print("accurate search")
print(jieba.lcut(text,cut_all=False))
或者:
print([i for i in jieba.cut(text,cut_all=False)])

print("search_for_engineer
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值