【kaggle】基于机器学习的文本分类任务(电影情感分析)

载入数据集

首先我们载入kaggle的数据集在这里插入图片描述
PhraseId为一个id,SentenceId为句子ID ,这里数据集,将一个句子分解开了,第一个为句子,后面的均是他的分解。

# 解压数据集
import zipfile
def extract_file(path):
    with zipfile.ZipFile(path,'r') as zipref:
        zipref.extractall('./data')

paths = [
    '/kaggle/input/sentiment-analysis-on-movie-reviews/train.tsv.zip',
    '/kaggle/input/sentiment-analysis-on-movie-reviews/test.tsv.zip', 
]
_ = [extract_file(path) for path in paths]

然后我们只需要读入句子和情感标签即可

train_tsv =pd.read_csv('./data/train.tsv', sep='\t', header=0)
# train_tsv = pd.read_csv("/kaggle/working/data/train.tsv")
phrase = np.array(train_tsv["Phrase"])
sentiment =  np.array(train_tsv["Sentiment"])

BOW特征工程

这里使用sklearnCountVectorizer模型,将模型转换成一个np的矩阵。

from sklearn.feature_extraction.text import CountVectorizer

vectorizer  = CountVectorizer(stop_words='english', max_features=1000)
docs = phrase
# bag是一个稀疏的矩阵。因为词袋模型就是一种稀疏的表示。
bag = vectorizer .fit_transform(docs)
vocabulary = vectorizer.get_feature_names_out()
word_counts = bag.toarray()

划分数据集

这里将数据划分80%的训练集,20%测试集

from sklearn.model_selection import train_test_split
x_train, x_test, y_train, y_test = train_test_split(word_counts,sentiment, random_state=22,test_size=0.2)

训练

导入sklarnLogisticRegression模型

# 损失函数: liblinear  lbfgs  newton-cg  sag
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score
classifier = LogisticRegression(solver="lbfgs",max_iter=500 )
classifier.fit(x_train, y_train)

y_pred = classifier.predict(x_test)
print(accuracy_score(y_pred,y_test))

结果精度只有0.58
在这里插入图片描述

提交

def submission(model,vectorizer):
    test_csv =pd.read_csv('./data/test.tsv', sep='\t', header=0)
    # phrase = np.array(test_csv["Phrase"])
    
    X = vectorizer.fit_transform(test_csv["Phrase"].values.astype('U'))

    y_pred = model.predict(X)
    
    test_csv['Sentiment'] = pd.Series(y_pred)
    submission = pd.concat([test_csv["Phrase"], test_csv['Sentiment']], axis=1)
    submission.to_csv("submission.csv", index=False)
    print("Done!!!!!!!!!!!!!!!!!!!!!!!!!!!")
    
    
submission(classifier,vectorizer)

只有0.488,太低了,接下来尝试深度学习词嵌入的方法。
在这里插入图片描述

  • 6
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是英文电影评论情感分类Kaggle竞赛的代码: 1. 数据预处理: ```python import pandas as pd import numpy as np from sklearn.model_selection import train_test_split # 读取数据 df = pd.read_csv('train.csv') # 分割训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(df['review'], df['sentiment'], test_size=0.2, random_state=42) # 处理数据 import re import string from nltk.corpus import stopwords from nltk.stem import WordNetLemmatizer lemmatizer = WordNetLemmatizer() stop_words = stopwords.words('english') def preprocess(text): text = text.lower() # 小写化 text = re.sub('\[.*?\]', '', text) # 移除方括号及其内容 text = re.sub('[%s]' % re.escape(string.punctuation), '', text) # 移除标点符号 text = re.sub('\w*\d\w*', '', text) # 移除包含数字的单词 text = re.sub('[‘’“”…]', '', text) # 移除不规则的单引号、双引号和省略号 tokens = re.split('\W+', text) # 分词 tokens = [lemmatizer.lemmatize(word) for word in tokens if word not in stop_words] # 词形还原和移除停用词 return ' '.join(tokens) X_train = X_train.apply(lambda x: preprocess(x)) X_test = X_test.apply(lambda x: preprocess(x)) ``` 2. 特征提取: ```python from sklearn.feature_extraction.text import TfidfVectorizer # 特征提取 tfidf_vect = TfidfVectorizer(max_features=5000) tfidf_vect.fit(X_train) X_train_tfidf = tfidf_vect.transform(X_train) X_test_tfidf = tfidf_vect.transform(X_test) ``` 3. 模型训练和评估: ```python from sklearn.linear_model import LogisticRegression from sklearn.metrics import accuracy_score # 模型训练 lr = LogisticRegression() lr.fit(X_train_tfidf, y_train) # 模型评估 y_pred = lr.predict(X_test_tfidf) print('Test accuracy is {}'.format(accuracy_score(y_test, y_pred))) ``` 在这个例子中,我们使用了逻辑回归作为分类模型,使用TF-IDF作为特征提取方法。我们可以使用其他的模型和特征提取方法,比如使用词袋模型和使用神经网络等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值