文档的向量化

文档的向量化

0 CountVectorizer

from sklearn.feature_extraction.text import CountVectorizer
corpus = [
    'I like machine Learning.',
    'I love Deep Learning',
    'And i deep love Artificial Intelligence'
]

1 未经停用词过滤的文档向量化

vectorizer = CountVectorizer()
vectorizer.fit_transform(corpus).todense() # 转化为完整特征矩阵

在这里插入图片描述

vectorizer.vocabulary_

在这里插入图片描述

import pandas as pd

pd.Series(vectorizer.vocabulary_).plot.barh(title='Vectorizer_orignal')

在这里插入图片描述

2 经过停用词过滤后的文档向量化

import nltk 
nltk.download('stopwords')

停用词

stopwords = nltk.corpus.stopwords.words('english')
stopwords

在这里插入图片描述

vectorizer_english = CountVectorizer(stop_words='english')
vectorizer_english.fit_transform(corpus).todense()

在这里插入图片描述

vectorizer_english.vocabulary_

在这里插入图片描述

pd.Series(vectorizer_english.vocabulary_).plot.barh(title='vectorizer_english')

在这里插入图片描述

3 采用ngram模式进行文档向量化

ngram_range

vectorizer_ngrame = CountVectorizer(ngram_range=(1, 2))
vectorizer_ngrame.fit_transform(corpus).todense()

在这里插入图片描述

vectorizer_ngrame.vocabulary_

在这里插入图片描述

pd.Series(vectorizer_ngrame.vocabulary_).plot.barh('vectorizer_ngrame')

在这里插入图片描述

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值