sklearn实战:文档分类预测(朴素贝叶斯算法)

本文档介绍了如何使用sklearn库中的朴素贝叶斯算法进行文档分类预测,通过实例展示了该算法在文本分类问题上的应用。
摘要由CSDN通过智能技术生成
%matplotlib inline
import matplotlib.pyplot as plt
import numpy as np
from time import time
from sklearn.datasets import load_files

print("loading train dataset ...")
t = time()
news_train = load_files('datasets/mlcomp/379/train')
news_train.data #数组,所有文档的文本信息
news_train.target #数组,文档所属类别(数字)
news_train.target_names# 数组,文档所有类别的名称
loading train dataset ...





['alt.atheism',
 'comp.graphics',
 'comp.os.ms-windows.misc',
 'comp.sys.ibm.pc.hardware',
 'comp.sys.mac.hardware',
 'comp.windows.x',
 'misc.forsale',
 'rec.autos',
 'rec.motorcycles',
 'rec.sport.baseball',
 'rec.sport.hockey',
 'sci.crypt',
 'sci.electronics',
 'sci.med',
 'sci.space',
 'soc.religion.christian',
 'talk.politics.guns',
 'talk.politics.mideast',
 'talk.politics.misc',
 'talk.religion.misc']
print("summary: {0} documents in {1} categories.".format(
    len(news_train.data), len(news_train.target_names)))
print("done in {0} seconds".format(time() - t))
#语料库中训练集有13180个文档,20个类别
summary: 13180 documents in 20 categories.
done in 3.2623984813690186 seconds
#把所有文档转换为由TF-IDF表达的权重信息构成的向量
from sklearn.feature_extraction.text import TfidfVectorizer

print("vectorizing train dataset ...")
t = time()
vectorizer = TfidfVectorizer(encoding='latin-1')
X_train = vectorizer.fit_transform((d for d in news_train.data))
#TfidfVectorizer把所有文档转成矩阵,每行是一个文档,用TF-IDF表示对应该文档词的稀疏向量
X_train[0]
vectorizing train dataset ...





<1x130274 sparse matrix of type '<class 'numpy.float64'>'
    with 108 stored elements in Compressed Sparse Row format>
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值