论文笔记
文章平均质量分 91
做机器学习研究论文阅读记录
坐在云朵上的kiwi
这个作者很懒,什么都没留下…
展开
-
[VQA论文阅读]RUBi Reducing Unimodal Biases for Visual Question Answering
改变样本权重 减小最有偏置的样本的重要程度:比如那些不需要看图片就能够回答正确的样本 这样会让模型不再依赖于两个模态,而是使用统计概率解决问题 我们使用了一个只有问题的模型,能够通过识别不想要的规律被使用,来捕获语言偏置 代码 github.com/cdancette/rubi.bootstrap.pytorch 1.介绍 将what color banana 链接到yellow。利用了只有问题的模型是偏向问题模态的事实。在训练时,增加一个只有问题的分支,动态的调整损失来补充偏置。所以,反向传播会减少最偏.原创 2021-03-30 22:13:31 · 433 阅读 · 0 评论 -
[visual dialog相关论文阅读]Two Causal Principles for Improving Visual Dialog
我们认真检查了模型和数据之间的因果关系 1.我们应该移除对话历史直接输入到答案模型,不然可能会有有害的偏见 2.历史,问题和答案是一个不可观察的混杂因素,导致训练数据存在虚假的相关性 我们提出了几种因果干预的算法 1.介绍 我们引入了因果推理 图结构 站在数据的原因-影响解释上,不仅仅是统计联系。贡献:提出了两个原则 过去模型图和作者提出模型图的区别 连接线可以看作是模态变换 P1显示我们应该移除对话历史的直接输入,因为建造者不允许从过去的问答对里面复制,所以H不能推到A。但是建造者鼓励.原创 2021-03-30 21:31:10 · 415 阅读 · 0 评论 -
Visual Dialog 论文阅读笔记
@Visual Dialog 论文阅读笔记 Visual Dialog 论文阅读笔记 根据图像和历史对话推断语境回答问题对比:VQA只有一轮问答,没有储存历史信息如果下一个问题和上一个问题相关如存在指代,就非常有用与机器人讲话有两种情况:一是目的驱使,二是随便说 相关工作 视觉图灵测试:这个只有模式化的问答,我们是开放的回答,而且我们的数据库更加丰富基于文本的问答:融合了这个方面的研究以及图像,问...原创 2019-10-16 21:00:23 · 863 阅读 · 0 评论