使用sklearn实现垃圾短信识别

import pandas as pd
import jieba 
data = pd.read_csv(r"E:\UCAS\labled.txt",sep = '\t',names=['label','text'])#read data and name the row
#print(data.head())
data['cut_message'] = data["text"].apply(lambda x:' '.join(jieba.cut(x)))#use ' ' cut the sentences into words
#print(data.head())
x = data['cut_message'].values
y = data['label'].values

from sklearn.cross_validation import train_test_split
train_x,test_x,train_y,test_y = train_test_split(x,y,test_size=0.1)#test_size:train_size=1:9
from sklearn.feature_extraction.text import TfidfTransformer,CountVectorizer
vectorizer = CountVectorizer()
x_train_termcounts = vectorizer.fit_transform(train_x)
 
tfidf_transformer = TfidfTransformer()
x_train_tfidf = tfidf_transformer.fit_transform(x_train_termcounts)


from sklearn.naive_bayes import GaussianNB,MultinomialNB
classifier = MultinomialNB().fit(x_train_tfidf,train_y)

x_input_termcounts = vectorizer.transform(test_x)
x_input_tfidf = tfidf_transformer.transform(x_input_termcounts)

predicted_categories = classifier.predict(x_input_tfidf)

from sklearn.metrics import accuracy_score#accurency_score
accuracy_score(test_y,predicted_categories)

#output some examples
category_map = {
    0:'normal',
    1:'spam'
}
for sentence,category,real in zip(test_x[:10],predicted_categories[:10],test_y[:10]):
    print('\nmessage_content:',sentence,'\npredicted_type:',category_map[category],'real_values:',category_map[real])

代码来自"州的先生"

使用pandas处理数据,使用jieba进行中文分词,之后调用sklearn包中的tfidf函数,贝叶斯函数,交叉验证函数,准确率计算函数来进行垃圾短信的识别,最后输出几个实例展示。(sklearn包里的函数使用还不太熟练,jieba还有pandas工具包以后要多加练习)

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
垃圾分类是自然语言处理中的一个重要问题,可以使用机器学习算法对文本进行分类。sklearn是Python中常用的机器学习库之一,可以用于垃圾分类的实现。 下面是一个使用sklearn实现垃圾分类的示例: 1. 准备数据集 首先,需要准备一个垃圾邮件和非垃圾邮件的数据集,可以使用开源数据集如Enron Spam Dataset。将数据集分为训练集和测试集。 2. 特征提取 使用sklearn中的CountVectorizer将文本数据转换为向量表示,这是进行分类的前提。 ```python from sklearn.feature_extraction.text import CountVectorizer vectorizer = CountVectorizer() X_train = vectorizer.fit_transform(train_data) X_test = vectorizer.transform(test_data) ``` 3. 训练模型 使用sklearn中的分类器训练模型,可以选择朴素贝叶斯、支持向量机等分类器。 ```python from sklearn.naive_bayes import MultinomialNB classifier = MultinomialNB() classifier.fit(X_train, y_train) ``` 4. 测试模型 使用测试集评估模型性能。 ```python y_pred = classifier.predict(X_test) from sklearn.metrics import accuracy_score accuracy = accuracy_score(y_test, y_pred) print("Accuracy:", accuracy) ``` 完整代码如下: ```python from sklearn.feature_extraction.text import CountVectorizer from sklearn.naive_bayes import MultinomialNB from sklearn.metrics import accuracy_score # 准备数据集 train_data = ["This is a spam email", "This is not a spam email", ...] test_data = ["This is a test email", "This is another test email", ...] y_train = [1, 0, ...] y_test = [1, 0, ...] # 特征提取 vectorizer = CountVectorizer() X_train = vectorizer.fit_transform(train_data) X_test = vectorizer.transform(test_data) # 训练模型 classifier = MultinomialNB() classifier.fit(X_train, y_train) # 测试模型 y_pred = classifier.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print("Accuracy:", accuracy) ``` 可以根据实际情况修改代码,比如使用其他特征提取方法、分类器等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值