基于BERT模型的舆情分类应用研究-笔记

14天阅读挑战赛

基于BERT模型的舆情分类应用研究-笔记

一、模型介绍

本文工作:在预训练的BERT模型基础上进行结构的微调,将其适应于文本分类任务。

1.Transformer编码器

2013年Word2Vec通过连续词袋模型CBOW和连续Skip-gram模型进行训练。

CBOW:将一个句子中的一个词进行掩盖,通过神经网络介绍上下文词去预测被掩盖的词,通过神经网络计算出该词的词向量表征。原理类似于(人们阅读文本时发现某个词不认识,但可以通过上下文的语境含义去推测出该词的大致意思)

但后来人们发现了Word2Vec的缺点:无法解决多义词。针对该缺点,有学者提出新的表示词嵌入方法—ELMO,该模型利用预训练的词嵌入模型的基础上利用长短期记忆网络编码单词的上下文,调整单词的Embedding编码表示动态的具备了上下文语义。
在这里插入图片描述ELMO模型,句子中的每一个单词经过三层编码:嵌入层为单词原始的词向量表示,之后是第一层正向LSTM中对应的词汇编码,主要蕴含句法信息;最后是第二层反向LSTM中对应词汇编码,这层主要蕴含语义信息。通过给予三层各一个权重,将编码结果乘以各自权重累加求和,得到ELMO的输出。

BERT模型在ELMO模型之后提出,它与ELMO并无二致,根本的改变在于BERT使用的Transformer编码器代替了原先的LSTM。
在这里插入图片描述
Transformer外部结构,由6个编码器和6个解码器堆叠而成,它接收序列数据,并且输出序列数据,经过6个编码器处理后的数据会分别输入6个解码器进行解码。
在这里插入图片描述
每一个Encoder的内部构造完全相同,但参数不会共享,主要由两部分组成:自注意力层(self-attention)和前馈神经网络层(Feed Forward Neural Network)
每一个Decoder也有类似的内部结构,比Encoder多一个编码-解码注意力层,目的是帮助Decoder重点关注句子中某个关键词语,而忽略其他相关程度较低的词。
在这里插入图片描述
self-attention具体的执行流程,可以参考博客
在这里插入图片描述
计算公式
在这里插入图片描述
Bert模型执行流程:
Bert模型采用多头注意力机制(Multi-headed Attention),相较于self-attention,它为attention层提供了多个表示子空间(Representation Subspaces),拓展了模型关注不同位置的能力。每个注意力头(header)都分配了一个Query、Key、Value权重矩阵。这些权重矩阵在训练开始时随机生成,通过训练来自较低层的Encoder/Decoder的矢量投影到不同的表示子空间。

对于每一个注意力头,通过上述公式,计算得到相应的关照程序向量Z0,Z1,…,Z7,将8个向量拼接之后乘以矩阵W0,得到最终的注意力矩阵Z。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

二、实验介绍

采用微博舆情数据共14大类:民生、文化、娱乐、体育、财经、房产、汽车、教育、科技、军事、旅游、国际、农业、电竞。
在这里插入图片描述
在这里插入图片描述
作者将他提出的Bert的fine-turning训练记录与双向LSTM链接的CNN模型训练记录进行对比,作者的改进在训练数据集上表现出较好的F1值、精确度和召回率。

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

敷衍zgf

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值