python文本挖掘 培训_用Python做文本挖掘的流程

本文介绍了使用Python进行文本挖掘的详细流程,包括数据收集、预处理(如去除HTML标签、编码处理、分词)、预处理后的清洗(如去除停用词、词形还原)以及构建词袋模型、TF-IDF等。还提到了针对英文的特定步骤,如POS标记和拼写纠错,并提及了中文分词工具jieba。最后,文章涉及了模型训练和结果可视化。
摘要由CSDN通过智能技术生成

摘要:用Python做文本挖掘的流程

收集数据 数据集。如果是已经被人做成数据集了,这就省去了很多麻烦事 抓取。这个是 Python 做得最好的事情,优秀的包有很多,比如 scrapy,beautifulsoup 等等。 预处理(对这里的高质量讨论结果的修改,下面的顺序仅限英文) 去掉抓来的数据中不需要的部分,比如 HTML TAG,只保留文本。结合 beautifulsoup 和正则表达式就可以了。pattern.web 也有相关功能。 处理编码问题。没错,即使是英文也需要处理编码问题!由于 Python2 的历史原因,不得不在编程的时候自己处理。英文也存在 unicode 和 utf-8 转换的问题,中文以及其他语言就更不用提了。这里有一个讨论,可以参考,当然网上也有很多方案,找到一个适用于自己的最好。 将文档分割成句子。 将句子分割成词。专业的叫法是 tokenize。 拼写错误纠正。pyenchant 可以帮你!(中文就没有这么些破事!) POS Tagging。nltk 是不二选择,还可以使用 pattern。 去掉标点符号。使用正则表达式就可以。 去掉长度过小的单词。len<3 的是通常选择。 去掉 non-alpha 词。同样,可以用正则表达式完成 W 就可以。 转换成小写。 去掉停用词。Matthew L. Jockers 提供了一份比机器学习和自然语言处理中常用的停词表更长的停词表。中文的停词表 可以参考这个。 lemmatization/stemming。nltk 里面提供了好多种方式,推荐用 wordnet 的方式,这样不会出现把词过分精简,导致词丢掉原型的结果,如果实在不行,也用 snowball 吧,别用 porter,porter 的结果我个人太难接受了,弄出结果之后都根本不知道是啥词了。MBSP 也有相关功能。 重新去掉长度过小的词。是的,再来一遍。 重新去停词。上面这两部完全是为了更干净。 到这里拿到的基本上是非常干净的文本了。如果还有进一步需求,还可以根据 POS 的结果继续选择某一种或者几种词性的词。 Bag-of-Words! nltk 和 scikit.learn 里面都有很完整的方案,自己选择合适的就好。这里如果不喜欢没有次序的 unigram 模型,可以自行选择 bi-gram 和 tri-gram 以及更高的 n-gram 模型。nltk 和 sklearn里面都有相关的处理方法。 更高级的特征。 TF-IDF。这个 nltk 和 sklearn 里面也都有。 Hashing! 训练模型 到这里,就根据自己的应用选择合适的学习器就好了。 分类,情感分析等。sklearn 里面很多方法,pattern 里有情感分析的模块,nltk 中也有一些分类器。 主题发现 NMF (Online) Latent Dirichlet Allocation word2vec 自动文摘。这个自己写吧,没发现什么成型的工具。 Draw results Matplotlib Tag cloud Graph 想要大数据、Python学习资料的,加群,群号: 834325294,群里有免费的学习资料和视频

说明:在预处理部分仅仅针对英文的情况,由于中英文在分词上是不同的机制,所以在处理中文的时候需要根据情况进行,个人经验是在去停词之前分词。这部分有待完善。

中文分词。jieba 或者 Stanford (Chinese) Word Segmenter。jieba 是纯 Python 写的,Stanford 的可以通过 nltk 调用,复旦 NLP 也可以用 Python 调用。

希望本文能对大家有所帮助。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值