python中文分词库finalseg

python下的中文分词工具 finalseg库。

pypi仓库中又finalseg库,用户可以通过以下命令安装:

easy_install finalseg

项目地址:https://github.com/fxsjy/finalseg


程序示例:

# -*- encoding: utf-8 -*-

import finalseg

text = '对他们来说,只要日本不是逼太紧,也许拖是最好的办法,拖个天长地久,根据地壳板块移动的趋势,钓鱼岛迟早要镶上福建,这事自然就算成了。'
print '原文:'
print text
seg_list = finalseg.cut(text)
print "=="*10
print '分词后:'
print ','.join(seg_list)

输出结果:

原文:
对他们来说,只要日本不是逼太紧,也许拖是最好的办法,拖个天长地久,根据地壳板块移动的趋势,钓鱼岛迟早要镶上福建,这事自然就算成了。
====================
分词后:
对,他们,来,说,只要,日本,不,是,逼,太紧,也,许,拖,是,最好,的,办法,拖,个,天长,地久,根据,地壳,板块,移动,的,趋势,钓鱼,岛,迟早,要,镶,上,福建,这事,自然,就算,成,了










  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此基础上根据其它信息得到更精确的分词模式。 可用插件: 正则表达式插件 人名前缀插件 地名后缀插件 定制功能。分词过程产生4种阶段,每个阶段都可以加入个人的定制。 附加功能: 新词学习功能。通过输入大段文字,学习到此内容产生的新老词语。 获取大段文本的关键字。 获取大段文本的摘要。 支持用户自定义词典 Algorithm 核心是基于查找句子的最大概率路径来进行分词。 保证效率的基础上,对分词的各个阶段进行定义,方便用户添加属于自己的分词方法(默认有正则,前缀名字与后缀地名)。 用户可自定义使用动态规划或Dijdstra算法得到最优的一条或多条路径,再次可根据词性(中科大ictclas的作法)等其它信息得获得最优路径。 使用“最大熵”算法来实现对大文本的新词发现能力,很适合使用它来创建自定义词典,或在SNS等场合进行数据挖掘的工作。 相比已存在的结巴分词,去掉了很消耗内存的Trie树结构,以及新词发现能力并不强的HMM模型(未来此模型可能当成一个备选插件加入到此模块)。 目前状态 以上提到的核心部分以及基础功能都已得到实现。不过一些细节正在实现当中,目前还未发布版本。 一些片段的代码可以从我的代码分享得到:http://www.oschina.net/code/list_by_user?id=1180874 标签:Yaha  中文分词

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值