多模态情感分类 论文阅读笔记 Integrating Multimodal Information in Large Pretrained Transformers

作者创造了一个组件MAG, 用于使BERT 或者 XLNet这种 预训练的模型能对 多模态的信息进行 Fine-tune

组件的结构如下:
在这里插入图片描述
MAG的主要思想在于:

非语言模态(其它两个模态)会影响词汇的意义,进而影响向量在语义空间中的位置, 所以非语言和语言共同决定了向量在语义空间中的新位置。 在此图中Zi 表示 只受文本模态影响的位置, 我们通过引入 audio, visual 两个模态的信息得到一个偏移量Hi, 然后计算得到新位置

在这里插入图片描述
其中MAG的结构 由 AAAI2019 Words can shift Dynamically adjusting word representations using nonverbal behaviors 论文中的结构的一部分来的
在这里插入图片描述
MAG的加入

在这里插入图片描述
例如在BERT 中加入MAG, 我们在第j 层的输出Z, 与 j +1 层中间加入MAG,导入 另外两个模态的信息

问题:

  • 没有想到为什么能够进行fine-tune
  • 把一个AAAI2019年的组件 竟然用到BERT中, 这是我是没有想到的
  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值