AI夏令营(第三期)NLP 任务一

第一次提交baseline

第二次有显著提高

  • 将CountVectorizer替换为TfidfVectorizer
  • 使用停用词

第三次瞎捣鼓

  • 尝试SVM和决策树模型(运行速度:决策树>SVM>LogisticRegression)
  • 划分训练集和验证集查看正确率(自己运行时决策树效果最好,但提交结果见第三次,可能是过拟合了?)
  • 尝试调参(看起来没什么大变化)

# 导入pandas用于读取表格数据
import pandas as pd

# 导入BOW(词袋模型),可以选择将CountVectorizer替换为TfidfVectorizer(TF-IDF(词频-逆文档频率)),注意上下文要同时修改,亲测后者效果更佳
from sklearn.feature_extraction.text import TfidfVectorizer

# 导入LogisticRegression回归模型
from sklearn.linear_model import LogisticRegression
#导入SVM模型
from sklearn import svm
# 导入决策树分类器
from sklearn.tree import DecisionTreeClassifier, plot_tree

# 过滤警告消息
from warnings import simplefilter
from sklearn.exceptions import ConvergenceWarning
simplefilter("ignore", category=ConvergenceWarning)

# 划分数据集
from sklearn.model_selection import train_test_split
# 查看训练效果
from sklearn.metrics import classification_report

# 读取停用词
stops =[i.strip() for i in open(r'stop.txt',encoding='utf-8').readlines()]

# 读取数据集
train = pd.read_csv('/home/aistudio/data/data231041/train.csv')
train['title'] = train['title'].fillna('')
train['abstract'] = train['abstract'].fillna('')

test = pd.read_csv('/home/aistudio/data/data231041/testB.csv')
test['title'] = test['title'].fillna('')
test['abstract'] = test['abstract'].fillna('')

# 根据给定比例将数据集划分为训练集与验证集trian_data, eval_data
# train, evals = train_test_split(train, test_size = 0.2)

# 提取文本特征,生成训练集与测试集 
train['text'] = train['title'].fillna('') + ' ' +  train['author'].fillna('') + ' ' + train['abstract'].fillna('')+ ' ' + train['Keywords'].fillna('')
# evals['text'] = evals['title'].fillna('') + ' ' +  evals['author'].fillna('') + ' ' + evals['abstract'].fillna('')+ ' ' + evals['Keywords'].fillna('')
test['text'] = test['title'].fillna('') + ' ' +  test['author'].fillna('') + ' ' + test['abstract'].fillna('')

# 更改为TfidfVectorizer,去除停用词
vector = TfidfVectorizer(stop_words=stops).fit(train['text'])
train_vector = vector.transform(train['text'])
test_vector = vector.transform(test['text'])
# evals_vector = vector.transform(evals['text'])

# 引入模型
# model = LogisticRegression()
# model = svm.SVC()
model = DecisionTreeClassifier()

# 开始训练,这里可以考虑修改默认的batch_size与epoch来取得更好的效果
model.fit(train_vector, train['label'])

# # 预测,查看准确率
# y_pred = model.predict(evals_vector)
# print(classification_report(evals['label'], y_pred))

# # 利用模型对测试集label标签进行预测
test['label'] = model.predict(test_vector)
test['Keywords'] = test['title'].fillna('')
test[['uuid','Keywords','label']].to_csv('submit_task1.csv', index=None)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值