【机器学习】特征工程 - 文本特征提取TfidfVectorizer

文章介绍了在文本处理中如何使用TfidfVectorizer和CountVectorizer进行特征提取。TfidfVectorizer计算词的权重,重视低频高相关词,而CountVectorizer仅计词频。通过示例展示了从原始文本到特征矩阵的转换过程,并提到了转换回原始数据的方法。
摘要由CSDN通过智能技术生成

「作者主页」:士别三日wyx
「作者简介」:CSDN top100、阿里云博客专家、华为云享专家、网络安全领域优质创作者
「推荐专栏」:对网络安全感兴趣的小伙伴可以关注专栏《网络安全入门到精通》

「文本」进行特征提取时,一般会用「单词」作为特征,即特征词。

TfidfVectorizer会计算特征词的「权重」,帮我们发现哪个词是最重要的。

比如,某个词在这篇文章中出现的频率很高,但在其他文章中出现的频率很低,那么这个词对于这篇文章的权重就高。

而 CountVectorizer 则只是单纯的计算特征词出现的「次数」,对于多篇文章的特征提取,就相对逊色。

一、特征提取API

sklearn.feature_extraction 是用来提取特征的API。

sklearn.feature_extraction.text.TfidfVectorizer( stop_words=[…] )

  • fit_transform( data ):接收数据(文本或包含文本字符串的可迭代对象),返回提取的特征(权重矩阵)
  • vector.inverse_transform(new_data):将提取的特征,转换成之前的数据
  • get_feature_names_out():获取(特征)单词列表

参数:

  • stop_words:停用词,数组类型,指定的停用词不再作为特征词。

二、提取特征

我们准备一组原始数据,「提取」特征:

from sklearn import feature_extraction

# 原始数据
old_data = [
    "I am your mather !"
    "I am your father !"
]

# 初始化
tf = feature_extraction.text.TfidfVectorizer()

# 提取特征
new_data = tf.fit_transform(old_data)
print(new_data)

输出:

  (0, 1)	0.31622776601683794
  (0, 2)	0.31622776601683794
  (0, 3)	0.6324555320336759
  (0, 0)	0.6324555320336759

提取的结果是sparse类型的特征矩阵,我们用type查看一下返回值类型:

new_data = tf.fit_transform(old_data)
print(type(new_data))

输出:

<class 'scipy.sparse._csr.csr_matrix'>

这种存储形式目的是「节省内存」,但不利于我们分析,接下来,我们把结果转化成数组形式。

三、转成数组

使用sparse矩阵的内置方法 toarray() 转成「数组」

from sklearn import feature_extraction

# 原始数据
old_data = [
    "I am your mather !"
    "I am your father !"
]

# 初始化
tf = feature_extraction.text.TfidfVectorizer()

# 提取特征
new_data = tf.fit_transform(old_data)
print(new_data.toarray())

输出:

[[0.63245553 0.31622777 0.31622777 0.63245553]]

这种格式看起来友好一些,接下来,我们来分析一下这个输出结果是什么意思。

四、特征名字

get_feature_names_out() 获取提取特征的「名字」

from sklearn import feature_extraction

# 原始数据
old_data = [
    "I am your mather !"
    "I am your father !"
]

# 初始化
tf = feature_extraction.text.TfidfVectorizer()

# 提取特征
new_data = tf.fit_transform(old_data)
print(new_data.toarray())
print(tf.get_feature_names_out())

输出:

[[0.63245553 0.31622777 0.31622777 0.63245553]]
['am' 'father' 'mather' 'your']

原始数据中的每一个单词,都被当做一个特征;

当然,字母和标点符号默认不统计,因为没有意义。

特征名字 [‘am’ ‘father’ ‘mather’ ‘your’] 和 提取的特征 [0.63245553 0.31622777 0.31622777 0.63245553] 是一 一 对应的。

意思是:特征词 am 的权重是 0.63245553,特征词 father 的权重是 0.31622777,…

五、转回原始数据

inverse_transform( ) 方法可以将提取的特征转换成原始数据:

from sklearn import feature_extraction

# 原始数据
old_data = [
    "I am your mather !"
    "I am your father !"
]

# 初始化
tf = feature_extraction.text.TfidfVectorizer()

# 提取特征
new_data = tf.fit_transform(old_data)
print(new_data.toarray())
# 转回原始数据
print(tf.inverse_transform(new_data))

输出:

[[0.63245553 0.31622777 0.31622777 0.63245553]]
[array(['father', 'mather', 'your', 'am'], dtype='<U6')]
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

士别三日wyx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值