CVPR 2023: Cross-Domain Image Captioning with Discriminative Finetuning

本文探讨了使用判别性微调目标来改善跨域图像字幕的效果,通过预训练的编码器-解码器模型,针对不同领域进行适应,生成独特且信息丰富的字幕。同时,文章指出未来可能结合人机交互以提升模型性能。
摘要由CSDN通过智能技术生成

基于MECE原则,我们可以使用以下 6 个图像字幕研究分类标准:

1. 模型架构

  • 编码器-解码器模型:这些传统的序列到序列模型使用单独的神经网络来处理图像和生成字幕。编码器,通常是卷积神经网络(CNN),从图像中提取视觉特征。解码器,通常是循环神经网络(RNN)如 LSTM,然后逐字生成字幕,条件是编码后的图像特征。这是早期作品如 Show and Tell [44] 和 VGG+LSTM [12] 采用的基本架构。

  • 注意力机制模型:这些模型将注意力机制添加到编码器-解码器框架中。注意力机制允许解码器关注图像中与当前生成的单词相关的特定部分。这可以导致更准确和详细的字幕,尤其是对于复杂场景。示例包括 Show, Attend and Tell [46] 和 Bottom-up and Top-down Attention [3]。

  • Transformer 模型:这些模型完全用 Transformer 架构替换 RNN 解码器。Transformer 架构是一种强大的注意力机制,最初是为机器翻译开发的。Transformer 可以捕捉图像中的长距离依赖关系,生成流畅和语法正确的字幕。An Image is Wor

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

结构化文摘

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值