使用NLTK进行英文文本的分词和统计词频

该博客介绍了如何使用NLTK库进行英文文本处理,包括分词、词干提取(Stemming)、词形归一化(Lemmatization)以及标注词性。重点讲解了PorterStemmer和Lemmatization的区别,并展示了去除停用词后的词频统计方法,最后提到了如何生成英文词云。
摘要由CSDN通过智能技术生成

分词

先将文档读入,然后全部变为小写

    txt=open("English.txt","r").read()
    txt = txt.lower()#将英文全部变为小写

中文分词需要专门的方法:
在这里插入图片描述
英文分词就可以直接使用word_tokenize()进行分词

text="This is a text for test.And I want to learn how to use nltk."
words = nltk.word_tokenize(text)  #分词

分词后词干提取或词形归一

Stemming词干提取

把不影响词性的inflection的词缀砍掉
例如 :walking 砍掉ing=>walk

有三种方式,
LancasterStemmer()和PorterStemmer(),SnowballStemmer(),比较常用的是 Porter 提取算法

  1. Lancaster算法
from nltk.stem.lancaster import LancasterStemmer
lancaster_stemmer=LancasterStemmer()
print(lancaster_stemmer.stem('maximum'))
print(lancaster_stemmer.stem('multiply'))
  1. Porter提取算法
from
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值