-
-
TF-IDF原理
TF-IDF 是一个统计方法,用来评估某个词语对于一个文件集或文档库中的其中一份文件的重要程度。
词频 TF计算了一个单词在文档中出现的次数,它认为一个单词的重要性和它在文档中出现的次数呈正比。逆向文档频率 IDF,是指一个单词在文档中的区分度。它认为一个单词出现在的文档数越少,就越能通过这个单词把该文档和其他文档区分开。IDF 越大就代表该单词的区分度越大。
所以 TF-IDF 实际上是词频 TF 和逆向文档频率 IDF 的乘积。这样我们倾向于找到 TF 和 IDF 取值都高的单词作为区分,即这个单词在一个文档中出现的次数多,同时又很少出现在其他文档中。这样的单词适合用于分类。
-
文本矩阵化
-
from sklearn.feature_extraction.text import TfidfVectorizer import jieba # 读取训练集和停用词表 with open("../data/cnews/cnews.train.txt", encoding="utf-8") as file: data_lines = file.readlines() with open("../data/stopwords/中文停用词表.txt", encoding="utf-8") as file: stopwords_lines = file.readlines() # 将停用词表转为列表,使用jieba对训练集进行分词 stopwords = [line.strip() for line in stopwords_lines] cut_data = [" ".join(jieba.cut(line.strip())) for line in data_lines] # 使用TfidfVectorizer类对训练集的TF-IDF值进行计算 tfidf = TfidfVectorizer(stop_words=stopwords) res = tfidf.fit_transform(cut_data) # 将计算的结果转换为矩阵 print(res.toarray())
-
点互信息和互信息
-
特性筛选
-
特性选择常用方法[2]
常见的方法包括过滤法(Filter)、包裹法(Warpper),嵌入法(Embedding)
- 过滤法(Filter)
过滤法只用于检验特征向量和目标(响应变量)的相关度,不需要任何的机器学习的算法,不依赖于任何模型,只是应用统计量做筛选:我们根据统计量的大小,设置合适的阈值,将低于阈值的特征剔除。
- 包裹(Warpper)
与过滤法不同的是,包裹法采用的是特征搜索的办法。它的基本思路是,从初始特征集合中不断的选择子集合,根据学习器的性能来对子集进行评价,直到选择出最佳的子集。在搜索过程中,我们会对每个子集做建模和训练。
包裹实现流程:
其中Estimated Accuracy是机器学习分类问题的典型的性能指标。
- 嵌入法(Embedding)
如果仔细思考前两种方法,过滤法与学习器没有关系,特征选择只是用统计量做筛选,而包裹法则固定了学习器,特征选择只是在特征空间上进行搜索。而嵌入法最大的突破在于,特征选择会在学习器的训练过程中自动完成。
-
使用 sklearn 实现特征选择[3]
使用过滤法中的互信息法进行特征选择:
-
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import mutual_info_classif
iris=load_iris()
#选择K个最好的特征,返回选择特征后的数据
SelectKBest(mutual_info_classif, k=2).fit_transform(iris.data, iris.target)
本篇为转载,参考了datawhale学习小组的大佬的博客
原文链接:https://github.com/lingmacker/Datawhale/blob/master/自然语言处理-任务4.md