python从文本文件中提取数据转换成字典_机器学习 Python scikit-learn 中文文档(10)SKLearn 处理文本数据...

v2-d8d479d57d050e32c1d77bb859d61ce2_1440w.jpg?source=172ae18b

与官方文档完美匹配的中文文档,请访问

Python 机器学习包 - scikit-learn 0.20.2 documentation​www.studyai.cn

学习教程的配置项

加载 20 newsgroups 数据集

从文本文件中抽取特征

词袋(Bags of words)

使用scikit-learn对文本分词(tokenize)

从出现次数到出现频率

训练一个分类器

构建一个管道流

在测试集上评估性能

使用网格搜索进行参数调节

练习

练习 1: 语言辨识

练习 2: 电影评论的情感分析

练习 3: CLI 文本分类工具集

进一步的深入学习

Scikit-Learn 处理文本数据

本指南旨在一个单独实际任务中探索一些主要的 scikit-learn 工具: 分析关于 20 个不同主题的一个文件集合(新闻组帖子)。

在本节中,我们将会学习如何:

读取文件内容以及所属的类别

提取合适于机器学习的特征向量

训练一个线性模型来进行分类

使用网格搜索策略找到特征提取组件和分类器的最佳配置

学习教程的配置项

开始这篇教程之前,你必须首先安装 scikit-learn 以及所有其要求的库。

更多信息和系统安装指导请参考 installation instructions 。

这篇入门教程的源代码可以在你的 scikit-learn 文件夹下面找到:

scikit-learn/doc/tutorial/text_analytics/

这篇入门教程的源代码可以在 on Github.

这个入门教程包含以下的子文件夹:

*.rst files - 用 sphinx 编写的该教程的源代码

data - 用来存放在该教程中用到的数据集的文件夹

skeletons - 用来练习的未完成的示例脚本

solutions - 练习的答案

你也可以将这个文件结构拷贝到您的电脑的硬盘里名为 sklearn_tut_workspace 的 文件夹中来编辑你自己的文件完成练习,同时保持原有文件结构不变

% cp -r skeletons work_directory/sklearn_tut_workspace

机器学习算法需要数据。 进入每一个 $TUTORIAL_HOME/data 子文件夹,然后运行 fetch_data.py 脚本(需要您先读取这些文件)。

比如:

% cd $TUTORIAL_HOME/data/languages

% less fetch_data.py

% python fetch_data.py

加载 20 newsgroups 数据集

该数据集名为 “Twenty Newsgroups” 。 下面是这个数据集的官方介绍, 引自 网站:

website:

Twenty Newsgroups 数据集是一个包括近 20,000 个新闻组文档的集合,(几乎)平均分成了 20 个不同新闻组。 据我们所知,这最初是由 Ken Lang 收集的 ,很可能是为了他的论文 “Newsweeder: Learning to filter netnews,” 尽管他没有明确提及这个集合。 这 20 个新闻组集合已成为一个流行的数据集,用于机器学习中的文本应用的试验中,如文本分类和文本聚类。

接下来我们会使用 scikit-learn 中的这个内置数据集加载器来加载这 20 个新闻组。 或者,您也可以手动从网站上下载数据集, 使用 sklearn.datasets.load_files 功能,并将其指向未压缩文件夹下的 20news-bydate-train 子文件夹。

在第一个示例中,为了节约时间,我们将使用部分数据:从 20 个类别的数据集中选出 4 个来进行训练

categories = [‘alt.atheism’, ‘soc.religion.christian’,

… ‘comp.graphics’, ‘sci.med’]

如下所示,我们现在能够加载对应这些类别的文件列表

from sklearn.datasets import fetch_20newsgroups

twenty_train = fetch_20newsgroups(subset=‘train’,

… categories=categories, shuffle=True, random_state=42)

返回的数据集是一个 scikit-learn “bunch”: 一个简单的包含多个 “field” 的存储对象,可以方便的使用 python 中的 dict keys 或 object 属性来读取, 比如 target_names 包含了所请求的类别名称

twenty_train.target_names

[‘alt.atheism’, ‘comp.graphics’, ‘sci.med’, ‘soc.religion.christian’]

这些文件本身被读进内存中字典”bunch”的 data 属性中。 另外,这些文件名称也可以容易获取到:

len(twenty_train.data)

2257

len(twenty_train.filenames)

2257

让我们打印出所加载的第一个文件的前几行:

print("n".join(twenty_train.data[0].split("n")[:3]))

From: sd345@city.ac.uk (Michael Collier)

Subject: Converting images to HP LaserJet III?

Nntp-Posting-Host: hampton

print(twenty_train.target_names[twenty_train.target[0]])

comp.graphics

监督学习需要让训练集中的每个文档对应一个类别标签。 在这个例子中,类别是每个新闻组的名称,也刚好是每个储存文本文件的文件夹的名称。

由于速度和空间上效率的原因, scikit-learn 把目标属性加载为一个整型数列, 它与 target_names 列表中类别名称的 index(索引)相对应。 每个样本的类别的整数型 id 存放在 target 属性中

twenty_train.target[:10]

array([1, 1, 3, 3, 3, 3, 3, 2, 2, 2])

也可以通过如下方式取得类别名称:

for t in twenty_train.target[:10]:

… print(twenty_train.target_names[t])

comp.graphics

comp.graphics

soc.religion.christian

soc.religion.christian

soc.religion.christian

soc.religion.christian

soc.religion.christian

sci.med

sci.med

sci.med

你可以发现当我们调用函数 fetch_20newsgroups(…, shuffle=True, random_state=42) 时, 所有的样本都被随机打乱(使用了修正的 RNG 种子): 当你在重新训练整个数据集之前,这样可以帮助你只选取前几个样本来快速训练一个模型以及获得初步结果。

从文本文件中抽取特征

为了在文本文件中执行机器学习算法, 我们首先要做的是将文本内容转化成数值形式的特征向量。

词袋(Bags of words)

最直观的方法就是用词袋来表示:

给训练集中每一个出现在任意文档中的单词分配一个特定的整数 id(比如,通过建立一个从单词到整数索引的字典)。

对于每个文档 #i,计算每个单词 w 的出现次数并将其存储在 X[i, j] 中作为特征 #j 的值,其中 j 是在字典中词 w 的索引。

在这种词袋表示法中 n_features 是在整个文集(文章集合的缩写,下同)中不同单词的数量: 这个值一般来说超过 100,000 。

如果 n_samples == 10000, 存储 X 为 “float32” 型的 numpy 数组将会需要 10000 x 100000 x 4 bytes = 4GB内存 , 在当前的计算机中非常不好管理的。

幸运的是, X 数组中大多数的值为 0 ,是因为特定的文档中使用的单词数量远远少于总体的词袋单词个数。 因此我们可以称词袋模型是典型的 high-dimensional sparse datasets(高维稀疏数据集)。 我们可以通过只在内存中保存特征向量中非 0 的部分以节省大量内存。

scipy.sparse 矩阵正是能完成上述操作的数据结构,同时 scikit-learn 有对这样的数据结构的内置支持。

使用scikit-learn对文本分词(tokenize)

文本的预处理, 分词以及过滤停用词都被包含在一个可以构建特征字典和将文档转换成特征向量的高级组件 CountVectorizer 中

from sklearn.feature_extraction.text import CountVectorizer

count_vect = CountVectorizer()

X_train_counts = count_vect.fit_transform(twenty_train.data)

X_train_counts.shape

(2257, 35788)

CountVectorizer 支持单词或者连续字符的 N-gram 模型的计数。 一旦拟合, 向量化程序(vectorizer)就会构建一个包含特征索引的字典

count_vect.vocabulary_.get(u’algorithm’)

4690

在词汇表中一个单词的索引值对应的是该单词在整个训练的文集中出现的频率。

从出现次数到出现频率

出现次数的统计是非常好的开始,但是有个问题:长的文本相对于短的文本有更高的单词平均出现次数, 尽管他们可能在描述同一个主题。

为了避免这些潜在的差异,只需将各文档中每个单词的出现次数除以该文档中所有单词的总数: 这些新的特征称之为词频 tf (Term Frequencies)。

另一个在词频的基础上改良是,降低在该训练文集中的很多文档中均出现的单词的权重, 从而突出那些仅在该训练文集中在一小部分文档中出现的单词的信息量。

这种方法称为 tf–idf ,全称为 “Term Frequency times Inverse Document Frequency”。

tf 和 tf–idf 都可以按照下面的方式计算 TfidfTransformer:

from sklearn.feature_extraction.text import TfidfTransformer

tf_transformer = TfidfTransformer(use_idf=False).fit(X_train_counts)

X_train_tf = tf_transformer.transform(X_train_counts)

X_train_tf.shape

(2257, 35788)

在上面的样例代码中,我们首先使用了 fit(…) 方法来拟合对数据的 estimator(估算器),接着使用 transform(…) 方法 来把我们的计数矩阵(count-matrix)转换成 tf-idf 型。 通过跳过冗余处理,这两步可以结合起来,来更快地得到同样的结果。 这种操作可以使用上节提到过的 fit_transform(…) 方法来完成,如下

tfidf_transformer = TfidfTransformer()

X_train_tfidf = tfidf_transformer.fit_transform(X_train_counts)

X_train_tfidf.shape

(2257, 35788)

训练一个分类器

现在我们有了特征,我们可以训练一个分类器来预测一个帖子所属的类别。 让我们从 naïve Bayes 分类器开始. 该分类器为该任务提供了一个好的基准(baseline)。scikit-learn 包含了该分类器的若干变种;最适用在该问题上的变种是多项式(multinomial)分类器

from sklearn.naive_bayes import MultinomialNB

clf = MultinomialNB().fit(X_train_tfidf, twenty_train.target)

为了尝试预测新文档所属的类别,我们需要使用和之前同样的步骤来抽取特征。 不同之处在于,我们在transformer调用 transform 而不是 fit_transform , 因为这些特征已经在训练集上进行拟合了

docs_new = [‘God is love’, ‘OpenGL on the GPU is fast’]

X_new_counts = count_vect.transform(docs_new)

X_new_tfidf = tfidf_transformer.transform(X_new_counts)

predicted = clf.predict(X_new_tfidf)

for doc, category in zip(docs_new, predicted):

… print(’%r => %s’ % (doc, twenty_train.target_names[category]))

‘God is love’ => soc.religion.christian

‘OpenGL on the GPU is fast’ => comp.graphics

构建一个管道流

为了使得 向量化(vectorizer) => 转换器(transformer) => 分类器(classifier) 过程更加简单, scikit-learn 提供了一个 Pipeline 类,操作起来像一个复合分类器

from sklearn.pipeline import Pipeline

text_clf = Pipeline([

… (‘vect’, CountVectorizer()),

… (‘tfidf’, TfidfTransformer()),

… (‘clf’, MultinomialNB()),

… ])

名称 vect, tfidf 和 clf (分类器)都是任意的。 我们将会在下面的网格搜索(grid search)小节中看到它们的用法。 现在我们可以使用下面的一行命令来训练模型

text_clf.fit(twenty_train.data, twenty_train.target)

Pipeline(…)

在测试集上评估性能

评估模型的预测准确度同样简单

import numpy as np

twenty_test = fetch_20newsgroups(subset=‘test’,

… categories=categories, shuffle=True, random_state=42)

docs_test = twenty_test.data

predicted = text_clf.predict(docs_test)

np.mean(predicted == twenty_test.target)

0.8348…

那就是, 我们模型的准确度为 83.4%. 我们使用 linear support vector machine (SVM) , 是公认的最好的文本分类算法之一(尽管训练速度比朴素贝叶斯慢一点)。 仅需要在 Pipeline(管道)中插接入不同的分类器对象,就可以改变我们的学习器:

from sklearn.linear_model import SGDClassifier

text_clf = Pipeline([

… (‘vect’, CountVectorizer()),

… (‘tfidf’, TfidfTransformer()),

… (‘clf’, SGDClassifier(loss=‘hinge’, penalty=‘l2’,

… alpha=1e-3, random_state=42,

… max_iter=5, tol=None)),

… ])

text_clf.fit(twenty_train.data, twenty_train.target)

Pipeline(…)

predicted = text_clf.predict(docs_test)

np.mean(predicted == twenty_test.target)

0.9127…

使用SVM分类器,我们获得了 91.3% 的准确率。 此外, scikit-learn 提供了更加细致的模型性能评估工具

from sklearn import metrics

print(metrics.classification_report(twenty_test.target, predicted,

… target_names=twenty_test.target_names))

precision recall f1-score support

alt.atheism 0.95 0.81 0.87 319

comp.graphics 0.88 0.97 0.92 389

sci.med 0.94 0.90 0.92 396

1

2

3

soc.religion.christian 0.90 0.95 0.93 398

micro avg 0.91 0.91 0.91 1502

macro avg 0.92 0.91 0.91 1502

weighted avg 0.92 0.91 0.91 1502

1

2

3

metrics.confusion_matrix(twenty_test.target, predicted)

array([[258, 11, 15, 35],

[ 4, 379, 3, 3],

[ 5, 33, 355, 3],

[ 5, 10, 4, 379]])

正如所期望的, confusion matrix(混淆矩阵)表明 atheism 和 christian 两个类别的新闻帖子会比它们中任一类与

computer graphics 类别的新闻贴子更容易彼此混淆。

使用网格搜索进行参数调节

我们已经接触了类似于 TfidfTransformer 中 use_idf 这样的参数 ,分类器也有许多参数; 比如, MultinomialNB 包含了平滑参数 alpha 以及 SGDClassifier 有惩罚参数 alpha 和 目标函数中的可设置的损失以及惩罚因子(请翻阅该模块说明,或者更多信息请使用 python 的 help 文档)。

不是调整 chain(链)的各种组件的参数,相反,通过构建巨大的可能值的网格从而对最佳参数的穷尽搜索是可能的。 我们尝试所有情况的分类器:使用词袋或者二元模型,使用或者不使用 idf ,在linear SVM 上设置 0.01 或者 0.001 的惩罚参数

from sklearn.model_selection import GridSearchCV

parameters = {

… ‘vect__ngram_range’: [(1, 1), (1, 2)],

… ‘tfidf__use_idf’: (True, False),

… ‘clf__alpha’: (1e-2, 1e-3),

… }

很明显, 如此地穷举是非常耗时的。 如果我们有多个 CPU,通过设置 n_jobs 参数可以进行并行处理。 如果我们将该参数设置为 -1 , 该方法会使用机器的所有 CPU 核心:

gs_clf = GridSearchCV(text_clf, parameters, cv=5, iid=False, n_jobs=-1)

网格搜索的操作跟 scikit-learn 中常见的模型的操作是类似的。 让我们来选择训练集中的一小部分进行搜索来加速计算

gs_clf = gs_clf.fit(twenty_train.data[:400], twenty_train.target[:400])

在 GridSearchCV 对象上调用 fit 的结果就是我们得到了用来 predict 的分类器

twenty_train.target_names[gs_clf.predict([‘God is love’])[0]]

‘soc.religion.christian’

该对象的 best_score_ 和 best_params_ 属性存放了最佳的平均分以及其所对应的参数配置

gs_clf.best_score_

0.9…

for param_name in sorted(parameters.keys()):

… print("%s: %r" % (param_name, gs_clf.best_params_[param_name]))

clf__alpha: 0.001

tfidf__use_idf: True

vect__ngram_range: (1, 2)

更详细的搜索总结可以在 gs_clf.cv_results_ 中得到。

cv_results_ 参数能够轻易地以 DataFrame 格式被导入到 pandas 中,以供以后观察。

练习

为了做这个练习,请拷贝 ‘skeletons’ 文件夹到新的文件夹,并将其命名为 ‘workspace’

% cp -r skeletons workspace

这时候可以任意更改练习的代码而不会破坏原来的练习指导。

然后启动 ipython 交互环境,并运行以下 python 脚本:

[1] %run workspace/exercise_XX_script.py arg1 arg2 arg3

如果出现错误, 请使用 %debug 来启动 ipdb 调试环境。

迭代更改答案直到练习完成。

在每个练习中, skeleton 文件提供了所有必需的import语句,加载数据的模板代码以及评估模型准确度的样例代码.

练习 1: 语言辨识

请使用以维基百科中的文章作为训练集的自定义的预处理器和 CharNGramAnalyzer , 来编写一个文本分类的 Pipeline(管道)。

评估某些测试集的性能.

ipython command line:

%run workspace/exercise_01_language_train_model.py data/languages/paragraphs/

练习 2: 电影评论的情感分析

编写一个文本分类 Pipeline(管道)来将电影评论分类为积极的(positive)还是消极的(negative)。

使用网格搜索来找到好的参数配置。

使用测试集进行性能评估。

ipython command line:

%run workspace/exercise_02_sentiment.py data/movie_reviews/txt_sentoken/

练习 3: CLI 文本分类工具集

使用前面的练习结果以及标准库的 cPickle模块,编写一个命令行工具来检测由stdin 输入的文本语言。 如果输入的文本是英文的话,请评估该文本的极性(积极的还是消极的)。

加分项:该工具对其预测给出置信水平。

进一步的深入学习

当你完成这个章节时,下面是几个建议来帮助你对 scikit-learn 有进一步的理解:

尝试使用 CountVectorizer 类下的 analyzer 以及 token normalisation 。

如果你没有标签,尝试使用 聚类 Clustering 来解决你的问题。

如果每篇文章有多个标签,请参考 多类别和多标签部分 Multiclass and multilabel section.

尝试使用 Truncated SVD 解决 隐语义分析 latent semantic analysis.

使用 Out-of-core Classification 来学习不会存入计算机的主存储器的数据。

使用 Hashing Vectorizer 来节省内存,以代替 CountVectorizer 。

© 2007 - 2018, scikit-learn developers (BSD License). Show this page source

Previous

---------------------

作者:ScorpioDoctor

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值