jieba分词的基本用法和词性标注

jieba分词的基本用法和词性标注

一、jieba 分词基本概述

  • 它号称“做最好的Python中文分词组件”的jieba分词是python语言的一个中文分词包。
  • 它有如下三种模式:
    • 精确模式,试图将句子最精确地切开,适合文本分析;
    • 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
    • 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
  • 支持繁体分词
  • 支持自定义词典,接下来看一个小 demo 如下:
import jieba 

seg_list = jieba.cut('我来到北京清华大学',cut_all=True) 
print('Full Mode:', '/ '.join(seg_list))  # 全模式


seg_list = jieba.cut("我来到北京清华大学",cut_all=False)
print ("\nDefault Mode:", "/ ".join(seg_list)) #精确模式

seg_list = jieba.cut("他来到了网易杭研大厦") #默认是精确模式
print ('\n新词识别:(如,杭研)',", ".join(seg_list))

seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造") #搜索引擎模式
print ("\n搜索引擎模式:",", ".join(seg_list))
Full Mode: 我/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学

Default Mode: 我/ 来到/ 北京/ 清华大学

新词识别:(如,杭研) 他, 来到, 了, 网易, 杭研, 大厦

搜索引擎模式: 小明, 硕士, 毕业, 于, 中国, 科学, 学院, 科学院, 中国科学院, 计算, 计算所, ,, 后, 在, 日本, 京都, 大学, 日本京都大学, 深造

二、添加自定义词典

1、开发者可以指定自己自定义的词典,以便包含jieba词库里没有的词。虽然jieba有新词识别能力,但是自行添加新词可以保证更高的正确率。


2、用法:jieba.load_userdict(file_name) # file_name为自定义词典的路径


3、词典格式和dict.txt一样,一个词占一行;每一行分三部分,一部分为词语,另一部分为词频,最后为词性(可省略),用空格隔开


4、范例:

3、关键词提取

1、首先,通过如下代码导入下面的库

import jieba.analyse

其次:便可以使用,

jieba.analyse.extract_tags(sentence,topK) 
  • 其中,sentence 为待提取的文本
  • topK 为返回的几个 TF/IDF 权重最大的关键词,默认值为20

代码可以参见:
https://github.com/fxsjy/jieba/blob/master/test/extract_tags.py

四、词性标注 *

  • 标注句子分词后每个词的词性,采用和ictclas兼容的标记法
  • 用法示例:
>>> import jieba.posseg as pseg
>>> words =pseg.cut("我爱北京天安门")
>>> for w in words:
...    print w.word,w.flag
... 

输出如下 : 

我 r
爱 v
北京 ns
天安门 ns

五、并行分词

  • 原理:将目标文本按行分隔后,把各行文本分配到多个python进程并行分词,然后归并结果,从而获得分词速度的可观提升
  • 基于python自带的multiprocessing模块,
  • 用法:
    • jieba.enable_parallel(4) # 开启并行分词模式,参数为并行进程数
    • jieba.disable_parallel() # 关闭并行分词模式

例子,参见如下:
https://github.com/fxsjy/jieba/blob/master/test/parallel/test_file.py

六、Tokenize:返回词语在原文的起始位置

  • 注意,输入参数只接受unicode
  • 默认模式
result = jieba.tokenize(u'永和服装饰品有限公司')
for tk in result:
    print ("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2]))
word 永和      start: 0        end:2
word 服装      start: 2        end:4
word 饰品      start: 4        end:6
word 有限公司        start: 6        end:10
  • 搜索模式
result = jieba.tokenize(u'永和服装饰品有限公司',mode='search')
for tk in result:
    print ("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2]))
word 永和      start: 0        end:2
word 服装      start: 2        end:4
word 饰品      start: 4        end:6
word 有限      start: 6        end:8
word 公司      start: 8        end:10
word 有限公司        start: 6        end:10
  • 这里附上词性标注表,如下:
  • 名词 (1个一类,7个二类,5个三类)

  • 名词分为以下子类:

    • n 名词
    • nr 人名
    • nr1 汉语姓氏
    • nr2 汉语名字
    • nrj 日语人名
    • nrf 音译人名
    • ns 地名
    • nsf 音译地名
    • nt 机构团体名
    • nz 其它专名
    • nl 名词性惯用语
    • ng 名词性语素
  • 时间词(1个一类,1个二类)

    • t 时间词
    • tg 时间词性语素
  • 处所词(1个一类)

    • s 处所词
  • 方位词(1个一类)

    • f 方位词
  • 动词(1个一类,9个二类)

    • v 动词
    • vd 副动词
    • vn 名动词
    • vshi 动词“是”
    • vyou 动词“有”
    • vf 趋向动词
    • vx 形式动词
    • vi 不及物动词(内动词)
    • vl 动词性惯用语
    • vg 动词性语素
  • 形容词(1个一类,4个二类)

    • a 形容词
    • ad 副形词
    • an 名形词
    • ag 形容词性语素
    • al 形容词性惯用语
  • 区别词(1个一类,2个二类)

    • b 区别词
    • bl 区别词性惯用语
  • 状态词(1个一类)

    • z 状态词
  • 代词(1个一类,4个二类,6个三类)

    • r 代词
    • rr 人称代词
    • rz 指示代词
    • rzt 时间指示代词
    • rzs 处所指示代词
    • rzv 谓词性指示代词
    • ry 疑问代词
    • ryt 时间疑问代词
    • rys 处所疑问代词
    • ryv 谓词性疑问代词
    • rg 代词性语素
  • 数词(1个一类,1个二类)

    • m 数词
    • mq 数量词
  • 量词(1个一类,2个二类)

    • q 量词
    • qv 动量词
    • qt 时量词
  • 副词(1个一类)

    • d 副词
  • 介词(1个一类,2个二类)

    • p 介词
    • pba 介词“把”
    • pbei 介词“被”
  • 连词(1个一类,1个二类)

    • c 连词
    • cc 并列连词
  • 助词(1个一类,15个二类)

    • u 助词
    • uzhe 着
    • ule 了 喽
    • uguo 过
    • ude1 的 底
    • ude2 地
    • ude3 得
    • usuo 所
    • udeng 等 等等 云云
    • uyy 一样 一般 似的 般
    • udh 的话
    • uls 来讲 来说 而言 说来
    • uzhi 之
    • ulian 连 (“连小学生都会”)
  • 叹词(1个一类)

    • e 叹词
  • 语气词(1个一类)

    • y 语气词(delete yg)
  • 拟声词(1个一类)

    • o 拟声词
  • 前缀(1个一类)

    • h 前缀
  • 后缀(1个一类)

    • k 后缀
  • 字符串(1个一类,2个二类)

    • x 字符串
    • xx 非语素字
    • xu 网址URL
  • 标点符号(1个一类,16个二类)

    • w 标点符号
    • wkz 左括号,全角:( 〔 [ { 《 【 〖 〈 半角:( [ { <
    • wky 右括号,全角:) 〕 ] } 》 】 〗 〉 半角: ) ] { >
    • wyz 左引号,全角:“ ‘ 『
    • wyy 右引号,全角:” ’ 』
    • wj 句号,全角:。
    • ww 问号,全角:? 半角:?
    • wt 叹号,全角:! 半角:!
    • wd 逗号,全角:, 半角:,
    • wf 分号,全角:; 半角: ;
      wn 顿号,全角:、
    • wm 冒号,全角:: 半角: :
    • ws 省略号,全角:…… …
    • wp 破折号,全角:—— -- ——- 半角:—
    • wb 百分号千分号,全角:% ‰ 半角:%
    • wh 单位符号,全角:¥ $ £ ° ℃ 半角 $

转载自: https://blog.csdn.net/li_31415/article/details/48660073

结巴分词早期版本。 * 结巴分词(java版) jieba-analysis 首先感谢jieba分词原作者[[https://github.com/fxsjy][fxsjy]],没有他的无私贡献,我们也不会结识到结巴 分词,更不会有现在的java版本。 结巴分词的原始版本为python编写,目前该项目在github上的关注量为170, 打星727次(最新的数据以原仓库为准),Fork238次,可以说已经有一定的用户群。 结巴分词(java版)只保留的原项目针对搜索引擎分词的功能(cut_for_index、cut_for_search),词性标注,关键词提取没有实现(今后如用到,可以考虑实现)。 * 简介 ** 支持分词模式 - Search模式,用于对用户查询词分词 - Index模式,用于对索引文档分词 ** 特性 - 支持多种分词模式 - 全角统一转成半角 - 用户词典功能 - conf 目录有整理的搜狗细胞词库 - 支持词性标注(感谢 [[https://github.com/linkerlin][@linkerlin]] 的贡献) * 如何获取 - 当前稳定版本 #+BEGIN_SRC xml com.huaban jieba-analysis 0.0.2 #+END_SRC - 当前快照版本 - 支持词性标注 [[https://github.com/huaban/jieba-analysis/pull/4][#4]] - 修复以'-'连接词分词错误问题 [[https://github.com/huaban/jieba-analysis/issues/3][#3]] #+BEGIN_SRC xml com.huaban jieba-analysis 1.0.0-SNAPSHOT #+END_SRC * 如何使用 - Demo #+BEGIN_SRC java @Test public void testDemo() { JiebaSegmenter segmenter = new JiebaSegmenter(); String[] sentences = new String[] {"这是一个伸手不见五指的黑夜。我叫孙悟空,我爱北京,我爱Python和C++。", "我不喜欢日本和服。", "雷猴回归人间。", "工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作", "结果婚的和尚未结过婚的"}; for (String sentence : sentences) { System.out.println(segmenter.process(sentence, SegMode.INDEX).toString()); } } #+END_SRC * 算法(wiki补充...) - [ ] 基于 =trie= 树结构实现高效词图扫描 - [ ] 生成所有切词可能的有向无环图 =DAG= - [ ] 采用动态规划算法计算最佳切词组合 - [ ] 基于 =HMM= 模型,采用 =Viterbi= (维特比)算法实现未登录词识别 * 性能评估 - 测试机配置 #+BEGIN_SRC screen Processor 2 Intel(R) Pentium(R) CPU G620 @ 2.60GHz Memory:8GB 分词测试时机器开了许多应用(eclipse、emacs、chrome...),可能 会影响到测试速度 #+END_SRC - [[src/test/resources/test.txt][测试文本]] - 测试结果(单线程,对测试文本逐行分词,并循环调用上万次) #+BEGIN_SRC screen 循环调用一万次 第一次测试结果: time elapsed:12373, rate:2486.986533kb/s, words:917319.94/s 第二次测试结果: time elapsed:12284, rate:2505.005241kb/s, words:923966.10/s 第三次测试结果: time elapsed:12336, rate:2494.445880kb/s, words:920071.30/s 循环调用2万次 第一次测试结果: time elapsed:22237, rate:2767.593144kb/s, words:1020821.12/s 第二次测试结果: time elapsed:22435, rate:2743.167762kb/s, words:1011811.87/s 第三次测试结果: time elapsed:22102, rate:2784.497726kb/s, words:1027056.34/s 统计结果:词典加载时间1.8s左右,分词效率每秒2Mb多,近100万词。 2 Processor Intel(R) Core(TM) i3-2100 CPU @ 3.10GHz 12G 测试效果 time elapsed:19597, rate:3140.428063kb/s, words:1158340.52/s time elapsed:20122, rate:3058.491639kb/s, words:1128118.44/s #+END_SRC
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值