基于BERT和双向LSTM的微博评论倾向性分析研究-笔记

14天阅读挑战赛
努力是为了不平庸~

基于BERT和双向LSTM的微博评论倾向性分析研究-笔记

一、模型介绍

针对传统语言模型在词向量表示中无法解决词语 多义性的问题,提出采用BERT模型来提取微博评论文本的语义特征表示,然后将获取的词语语义特征输入到双向LSTM模型中进行倾向性分类。
选取新浪微博评论数据进行了对比实验。实验结果表明,提出的基于BERT和双向LSTM的微博评论倾向性分类模型的F1值达到91.45%,优于其他主流的倾向性分析模型,证明了方法的有效性。
[局限] 双向 LSTM 模型训练的计算复杂度较高,BERT模型只能依赖于谷歌发布的预训练模型。
文本语义表示方法从最初的 One-Hot 表示法发展到当 前主流的 Word2Vec、Glove 等基于神经网络的方法,虽然在一定程度上解决了词语上下文关系的问题,但还没有解 决词语在不同语境下具有不同含义这个多义词问题。本文提出利用BERT作为语言特征提取与表示方法,既能获取 微博评论文本的丰富的语法、语义特征,又能解决传统基 于神经网络结构的语言特征表示方法忽略词语多义性的问题。
在这里插入图片描述
BERT在预训练目标函数时采用遮蔽语言模型(Masked Language Model,MLM),随机遮蔽一些词语,再在预训练过程中对其进行预测,这样可以学习到能够融合两个不同方向文本的表征。对于BERT模型的输入,每一个词语的表示都有词语向量(Token E吗beddings)、段向量(Segment Embeddings)和位置向量(Positional Embeddings)相加产生。
在这里插入图片描述
首先对数据进行预处理,完成数据集的预处理。 接着将训练集和验证集数据使用 BERT 模型进行预训练, 预训练过程中会在输入词序列中随机遮蔽 15% 的词,然 后再对被遮蔽的词进行预测,而被遮蔽的词 80% 的时间 用 [MASK] 替换,10% 的时间用随机词替换,10% 的时 间让选择的词不变,这样更能偏向实际观察到的词。除此 之外,预训练时还会进行下一句预测任务。在完成预训练 任务之后,便可以获取 BERT 模型对输入句子的表示,即 获取 BERT 模型的最后一层作为双向 LSTM 模型的特征输 入,并在双向 LSTM 后接上一个全连接层,并对全连接层 采用 Softmax 函数实现分类。在建模完成后,利用测试集 数据进行文本倾向性分析预测,最后采用 F1 值评价模型的性能。

二、实验介绍

作者将BERT-BLSTM模型与
1.baseline:利用BERT模型在语料库上预训练得到文本特征后,通过一个全连接层直接输入到 Softmax 分类器中;
2.Word2Vec-BLSTM: 将输入句子采用 Word2Vec 训练出词向量表示,并将其作为特征输入到 BLSTM 中进行分类;
3.EC-BLSTM: 利用注意力机制改进输入词向量来增强倾向性信息的学习,再输入到 BLSTM中进行语义信息的学习,最后实现分类;
4.ELMo-BLSTM: 将输入句子采用ELMo训练出词语特征向量后,将其输入到BLSTM 中进行分类;
5.GPT-BLSTM: 采用 OpenAI GPT 对输入句子进 行训练得到新的表示后,输入到 BLSTM 中进行分类;
6.BERT-SVM: 利用BERT预训练得到文本特征表示 之后输入到 SVM 中进行分类;7.BERT-RNN: 利用BERT预训练得到文本特征表示 之后输入到RNN 中完成特征训练及分类;
8.BERT-CNN: 利用BERT预训练得到文本特征表示 之后输入到CNN 中完成特征训练及分类。
这八类模型进行详细的对比,最终BERT-BLSTM模型获得最高的准确率、召回率和F1值。在这里插入图片描述

三、缺陷和局限

本文方法也存在一 定的问题,一个是双向 LSTM 模型训练的计算复杂度较高,另一个是BERT模型复现比较困难,只能依赖于谷歌团队发布的预训练模型。在今后的工作中将针对这些问题 进行改进,以期获得更高效的倾向性分析模型。

  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
基于BERT_WWM的微博用户评论情感分析项目是利用预训练的中文BERT模型对微博用户评论进行情感分析研究项目。该项目首先利用BERT_WWM模型对大规模中文文本进行预训练,使得模型能够学习到丰富的语言表示和语境理解能力。接着,针对微博用户评论这一特定文本类型,项目团队对模型进行微调,以提高模型在微博评论情感分析任务上的表现。 在项目实施过程中,首先需要收集大量的微博用户评论数据,并对数据进行清洗和预处理,去除垃圾信息和不规范文本。然后利用微调后的BERT_WWM模型对评论文本进行编码表示,得到每个评论文本的语义向量。最后,通过添加一个全连接层和softmax分类器,对评论文本的情感进行分类,判断评论是积极的、消极的还是中立的。 该项目的应用领域广泛,可用于品牌舆情监测、新闻事件情感分析、产品用户评论情感分析等方面。通过对微博用户评论情感的准确分析,可以帮助企业和机构更好地了解用户的喜好和需求,及时调整营销策略、改进产品服务,从而提升用户满意度和产品竞争力。 除此之外,该项目还可以为数据分析和人工智能研究提供一个基于大规模中文文本的情感分析基础,为语义理解和情感计算领域的进一步探索打下基础。并且,基于BERT_WWM模型进行微博用户评论情感分析的方法也可以拓展到其他的社交媒体平台和文本类型,具有良好的可扩展性和通用性。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

敷衍zgf

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值