数据挖掘 文本分类(三)本地文档分词再保存到本地

这篇博文介绍了如何利用Python的nlpir库对本地TXT文档进行分词操作。作者参照廖雪峰老师的教程,实现了读取TXT文件,进行分词处理,然后将分词结果保存到新的TXT文件中,以此演示了文本处理的基本流程。
摘要由CSDN通过智能技术生成

          上一篇博文中,我们跑通了分词工具的示例文件,下面我们就要开始用分词工具尝试对我们之前准备的搜狗语料库里的文本文件进行分词了。

          首先我们来看nlpir.py文件代码:

能看出来, 只要我们把想要分词的中文文章以字符串的形式传递给p,然后通过调用相关的函数就能实现分词,并且分词结果可以输出。

这时,就要考虑python读入和输出文本文件的问题了。

根据廖雪峰老师的教程:http://www.liaoxuefeng.com/wiki/001374738125095c955c1e6d8bb493182103fac9270762a000/001386820066616a77f826d876b46b9ac34cb5f34374f7a000

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值