跨模态图文检索:多模态交互主题增强模型

《Multi-modal Mutual Topic Reinforce Modeling for Cross-media Retrieval》(2014 ACM)

今天分享一篇年代有点久远的文章。这篇文章提出了一个基于主题模型(topic model)的跨模态检索方法M3R。

主要思想

该文的主要思想是建立一个联合的跨模态概率模型,用监督学习的方式,通过跨模态的交互主题强化,自适应地学习一组语义上有意义的潜在主题。

具体一点说,M3R利用的是贝叶斯建模过程,将辅助信息(类别、标签等)纳入这个建模过程中,把语义一直的跨模态主题找出来,从而实现跨模态检索。这里给出了一个例子:

检索的大致过程:输入模态为p的内容,得到模态为q的对应结果。具体过程使先计算所有第q个模态中数据的主题比例,然后使用相似性分数对q模态的数据进行排名。

联合概率计算公式:

实验


表1和表2中可以看出,M3R在两个数据集上都达到了最佳的平均性能。值得注意的是,在NUS-WIDE数据集上,GMA和slim2两个方法在平均MAP值上高于M3R,这是因为NUS-WIDE中一张图像平均仅和7个单词关联(而wiki数据集中为117个),限制了M3R算法的性能。

反思

个人认为M3R倾向于通过相互增强主题来为跨模态的主题赋予较高的优先级,同时还会保留其它特有的情态的主题。这种做法从跨模态检索的角度来看感觉意义不大,而且还会占用一定的存储空间,从而带来浪费。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值