【中文文本分类实战系列】朴素贝叶斯实现THUCNews文本分类

THUCNews数据集

数据集背景

THUCNews是根据新浪新闻RSS订阅频道2005~2011年间的历史数据筛选过滤生成,包含74万篇新闻文档(2.19 GB),均为UTF-8纯文本格式。清华大学自然语言处理实验室在原始新浪新闻分类体系的基础上,重新整合划分出14个候选分类类别:财经、彩票、房产、股票、家居、教育、科技、社会、时尚、时政、体育、星座、游戏、娱乐。数据集介绍转自:THUCTC: 一个高效的中文文本分类工具包。本文采用了清华NLP组提供的THUCNews新闻文本分类数据集的子集,该数据集使用了其中的10个分类,每个分类6500条,总共65000条新闻数据。

数据集下载
数据集介绍

本文采用了清华NLP组提供的THUCNews新闻文本分类数据集的子集,数据集共有4个文件,具体如下:

  • cnews.train.txt:训练集(10*5000,一共50000条数据)
  • cnews.test.txt:测试集(10*1000,共10000条数据)
  • cnews.test.txt:验证集(10*500,共5000条数据)
  • cnews.vocab.txt:停用词表(共5000条数据)

数据预处理

数据导入
import pandas as pd
# 数据加载
train_df = pd.read_csv("./data/cnews.train.txt", sep='\t', names=['label', 'content'])
test_df = pd.read_csv("./data/cnews.test.txt", sep='\t', names=['label', 'content'])
print(train_df.info())
print(test_df.info())
print(train_df.head(5))
print(test_df.head(5))

在这里插入图片描述
在这里插入图片描述
训练集和测试集的前5个数据样本信息具体如下:
在这里插入图片描述

中文分词、去停用词
import jieba

X_train = train_df['content']
y_train = train_df['label']
X_test = test_df['content']
y_test = test_df['label']


# 数据预处理
def cut_content(data):
    """
    利用jieba工具进行中文分词
    :param data: 数据
    :return:
    """
    words = data.apply(lambda x: ' '.join(jieba.cut(x)))
    return words


# 加载停用词表
stopwords_file = open('./data/cnews.vocab.txt', encoding='utf-8')  
stopwords_list = stopwords_file.readlines()
stopwords = [x.strip() for x in stopwords_list]

特征工程

TF-IDF提取特征
from sklearn.feature_extraction.text import TfidfVectorizer

# TF-IDF提取特征
tfidf_vector = TfidfVectorizer(stop_words=stopwords, max_features=5000, lowercase=False, sublinear_tf=True, max_df=0.8)
tfidf_vector.fit(cut_content(X_train))
X_train_tfidf = tfidf_vector.transform(cut_content(X_train))
X_test_tfidf = tfidf_vector.transform(cut_content(X_test))
print(X_train_tfidf.shape)  # (50000, 5000)
print(X_test_tfidf.shape) # (10000, 5000)
卡方统计量进行特征选择
from sklearn.feature_selection import SelectKBest, chi2

# 利用卡方统计量进行特征选择
selector = SelectKBest(chi2, k=3000)
X_train_tfidf_chi = selector.fit_transform(X_train_tfidf, y_train)
X_test_tfidf_chi = selector.transform(X_test_tfidf)
print(X_train_tfidf_chi.shape) # (50000, 3000)
print(X_test_tfidf_chi.shape) # (10000, 3000)

模型训练:贝叶斯模型

from sklearn.naive_bayes import MultinomialNB

clf_nb = MultinomialNB(alpha=0.2)  # 模型参数可以根据分类结果进行调优
# 使用TF-IDF作为特征向量
clf_nb.fit(X_train_tfidf, y_train)  # 模型训练
y_pred = clf_nb.predict(X_test_tfidf)  # 模型预测

# 使用TF-IDF+chi作为特征向量
clf_nb.fit(X_train_tfidf_chi, y_train)  # 模型训练
y_pred_chi = clf_nb.predict(X_test_tfidf_chi)  # 模型预测

模型评估

from sklearn.metrics import classification_report, confusion_matrix

# 测试集准确率
print(clf_nb.score(X_test_tfidf, y_test)) # 0.9177
print(clf_nb.score(X_test_tfidf_chi, y_test))  # 0.9226

# 查看各类指标
print(classification_report(y_test, y_pred)) 
print(classification_report(y_test, y_pred_chi)) 

# 查看混淆矩阵
print(confusion_matrix(y_test, y_pred))
print(confusion_matrix(y_test, y_pred_chi))

在这里插入图片描述
在这里插入图片描述

  • 2
    点赞
  • 66
    收藏
    觉得还不错? 一键收藏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值