CO-GAT:一种用于联合对话行为识别和情感分类的交互式图注意力网络----论文阅读笔记

CO-GAT:一种用于联合对话行为识别和情感分类的交互式图注意力网络----论文阅读笔记

论文链接https://www.aminer.cn/pub/5fe5bf3b91e011e85bd969e5

我是在深度之眼(deepshare)的直播中学习的这篇论文,很多观点来自于直播中讲师的ppt,该文章权当为一篇个人向的学习笔记, 如有错误地方,恳请大家留言指正,THX!! (一个chatbot,我认为要想使他真正实现智能,必须要赋予他人格, 不是在大量的语料库训练下得到的一种经验回答, 因为这样就会出现对于某些提问的回答非常精准,而一些又非常愚蠢的问题, 就像是诗人看到星空,想到的是把酒当歌; 哲学家看到星空,想到的可能是存在的意义; 画家看到星空,想到的可能是一簇鸢尾花. 一个人一生接触到的对话,文字可能真的没有机器训练的语料库,但不可否认,人的创造力是远远优于目前的chatbot的)

要点:

对话行为识别(DAR)和情感分类(SC)是两个相关任务

  1. 论文动机:
    先前的情感分类任务,都无法将上下文信息(contextual information)和相互交互信息(mutual interaction information)这两个相关任务的关键因素共同考虑.
    在这里插入图片描述

  2. 对话问答系统
    (图片来源: b站深度之眼)在这里插入图片描述

  3. 输入输出:
    输入用户和系统的对话,输出每个句子对应的act, sentiment标签

  4. 成果:
    首次尝试同时合并上下文信息和相互交互信息
    提出了一个协作交互的图注意力网络,其中跨任务连接和跨话语连接

  5. 语料库
    Mastodon语料库的对话样本的摘录,每个话语都有一个对应的DA标签和一个情感标签。 (DA代表对话法)。 蓝色部分代表上下文信息,红色部分代表相互交互信息,而黄色部分代表要预测的目标标签
    在这里插入图片描述

  6. 模型框架
    该框架由一个分层的说话者感知encoder(下图最左),一个基于图的堆叠交互层(下图中间[]
    )和两个单独的decoder(下图最右)组成
    在这里插入图片描述

  7. 损失函数:
    在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值