![1ede6a1790f0997588d05ce9b426ede4.png](https://img-blog.csdnimg.cn/img_convert/1ede6a1790f0997588d05ce9b426ede4.png)
目录
视觉对话的模态平衡模型
对注意力的通用攻击和对应的数据集DAmageNet
半结构化表的组合语义分析
从输入输出示例合成高表达性SQL查询
DeeperCut: 一种更深入,更强,更快速的多人姿态估计模型
视觉对话的模态平衡模型
论文名称:Modality-Balanced Models for Visual Dialogue
作者:Kim Hyounghun /Tan Hao /Bansal Mohit
发表时间:2020/1/17
论文链接:https://paper.yanxishe.com/review/9325
推荐原因
这篇论文考虑的是视觉对话问题。
视觉对话任务需要一个模型来利用图像和对话以生成针对当前对话的下一个响应。然而存在大量对话问题是不需要通过任何上下文历史信息就可以根据查询图像而得以解答。这篇论文认为以往的联合模式(历史加图像信息)模型过于依赖且更易记住对话历史,而仅图像模型更加具有通用性,并且在允许多个正确答案时表现更好。因此这篇论文鼓励维护两个模型,即仅图像模型和图像-历史联合模型,并将它们的互补能力结合起来以形成更平衡的多峰模型。这篇论文通过集成和共有参数的共识落差融合,提出了两种方法用于这两个模型的集成,并且在2019年视觉对话挑战赛上取得了出色的成绩。