NLPCC'22 | 一种兼具准确性和多样性的图像风格化描述生成框架

每天给你送来NLP技术干货!


c401cbeaac842e346eae0a70a434838c.png

来自:南大NLP

01

研究动机

在本文中,我们研究了图像描述(Image Captioning)领域一个新兴的问题——图像风格化描述(Stylized Image Captioning)。随着深度学习的发展,自动图像描述吸引了计算机视觉和自然语言处理领域研究者们的广泛关注。现在的图像描述模型可以为图像生成准确的文本表述,但在日常生活中,人们在表达想法的同时通常还会带有自己的情感或者风格,为此研究者们提出了图像风格化描述任务,希望模型在准确描述视觉内容的同时也能在描述中融入指定的语言风格。例如对于图1展示的图片,下面列出了传统的事实性描述和四种风格带有风格的描述,即幽默的、浪漫的、积极的和消极的,其中画红线的部分是体现风格的部分。图像风格化描述也有许多下游应用,例如在聊天机器人中生成更吸引用户的图像描述、以及在社交媒体上通过有吸引力的描述启发用户。

bcc8c4e416b05dfd5c9478dac1e947a2.png1图像风格化描述(Stylized Image Captioning)任务

该任务的一个困难在于,收集图片和对应人工标注的风格化描述是代价高昂的,为此我们希望能够仅利用非成对的风格文本语料库,让图像描述模型在这些风格文本上自动学习语言风格知识。因此在训练时,我们提供事实性的图像-描述对数据集以及不包含图片的非成对的风格文本语料库,希望模型通过前者学习如何准确描述图像内容,通过后者学习如何在描述中融入指定语言风格。

在上述设定下,该任务的一个关键问题是:如何高效利用成对的事实性数据和非成对的风格数据。多数以往工作遵循传统的方法论:首先在大规模的成对事实性数据上预训练一个编码器-解码器模型,之后在非成对的风格数据上,以语言模型的方式微调解码器,例如StyleNet[1]MSCap[2]。然而,我们认为在非成对风格数据上按照语言模型微调会导致模型过于关注语言风格,而忽略了生成描述和图像内容的一致性,因为在微调时解码器完全与视觉输入无关。这最终导致了图像风格化描述模型无法生成切合图像内容的描述。MemCap[3]提出利用场景图作为中间媒介,将成对和非成对数据的训练过程统一为根据场景图生成描述;然而,由于不同模态间的差异,文本和图像抽取的场景图依然是不一致的,这导致模型在测试时仍然无法很好地兼顾描述图像内容的准确性和融入语言风格。

另一个重要问题是,目前的工作基本上忽略了生成风格表达的多样性。如图2所示,对于三张相似场景的图片,基线模型生成了完全相同的风格短语“to meet his lover”,而当为一张图片生成多个风格化描述时,基线模型生成的风格表述也缺乏变化。这样的结果极大偏离了图像风格化描述任务的初衷:我们希望得到生动多样的描述,而不仅仅是几个固定的表达。我们认为造成这一问题的原因是风格语料规模较小,使得传统的编码器-解码器模型难以生成多样的风格模式。

734d5a0e47034d0ada547c118c7c6b19.png2:传统编码器-解码器框架难以建模多样化的风格表达

为了解决上面提到的两方面问题,我们提出了全新的ADS-Cap框架:通过对比学习对齐图像文本两种模态,使模型能够将成对数据和非成对数据统一为条件生成的模式,使得模型能够在准确描述图像内容的同时融入指定语言风格;通过条件变分自编码器架构,引导隐空间记忆多种多样的风格表达,有效增强生成时的多样性。

02

贡献

1.我们提出了一个新颖的使用对比学习和条件变分自编码器的图像风格化描述框架ADS-Cap

2.当使用非成对风格文本语料库训练时,对比学习模块有效地提升了生成描述与图像内容的一致性。

3.条件变分自编码器框架通过在隐空间中记忆风格表达并在测试时采样,显著提升了图像风格化描述生成的多样性。

4.在两个benchmark图像风格化描述数据集上的实验结果表明,我们的方法在准确性和多样性上达到SOTA

03

解决方案

整体模型架构如下图3所示,主要由一个条件变分自编码器框架和一个对比学习模块组成。蓝色部分代表模型的输入和输出,黄色部分代表模型的可学习参数,红色部分是我们模型编码风格表达的隐空间。

6464d74a970a7583e278f68625c221d7.png3ADS-Cap框架示意图

3.1对比学习

我们首先通过一个目标对象词词表(来自VG数据集),从非成对数据的描述中抽取目标对象词,这样我们就能够将成对数据和非成对数据的训练统一为条件生成的模式:对于成对的事实性数据,我们根据图像特征生成事实性的描述;对于非成对的风格数据,我们根据目标对象词生成风格化的描述。然而,在测试时,我们需要根据图像特征生成风格化的描述,如下图4黄色箭头所示。为此我们的解决方案是,使用对比学习将图像特征和目标对象词特征编码到同一个共享的多模态特征空间,从而对于解码器来说,根据图像生成和根据目标对象词生成将不再有差异。

0f3663ca4a04eb028da2e831eda860fb.png4:使用非成对风格文本语料库带来的问题

具体而言,对比学习损失最大化一个batch内匹配样本间的余弦相似度,同时最小化不匹配样本间的余弦相似度[4],从而对齐图像和目标对象词两种模态的特征到同一个共享的多模态特征空间中。

f77ad8d224ca1371373379454892511e.png

3.2条件变分自编码器框架

为了提高生成描述的多样性,我们使用条件变分自编码器(CVAE)代替了传统的编码器-解码器架构,主要是因为CVAE在许多生成任务上多样性表现较好,而且对于图像风格化描述任务来说,可以利用隐空间自动记忆多种多样的风格表达,从而在测试时在隐空间不同区域采样就可以生成带有不同风格短语的描述。如图5所示,CVAE的编码器将样本的风格表达编码到隐变量,解码器通过该隐变量辅助尝试还原输入样本。之后,CVAE的训练原理也就是KL散度损失和重建损失使得各种各样的风格表达能够均匀地分布在隐空间中。

除此之外,我们在隐变量上增加了一个风格分类器,以隐变量为输入,预测该隐变量对应样本的风格。这样一个辅助损失有两方面好处,一个是可以引导隐空间编码与风格相关的信息;另外这个单层神经网络+softmax的分类器实际上也将整个隐空间按风格划分了,这样在测试时,我们就可以通过拒绝采样得到我们想要风格的隐变量。

0e0c7f595c065c0197d061b8087d9c91.jpeg5:条件变分自编码器框架及风格分类器

04

实验

我们在图像风格化描述的两个benchmark数据集FlickrStyle10K[1]SentiCap[5]上进行实验。前者包含幽默和浪漫两种风格,各7000张图片和对应的风格化描述;后者包含积极和消极两种风格,共2360张图片以及9513个风格化描述。数据集划分以及实验设定上,我们与MSCap[2]MemCap[3]保持一致。

4.1内容准确性&风格准确性

在性能方面,我们首先比较了之前工作采用的内容准确率和风格准确率。其中内容准确率采用BleuCIDEr这类计算和参考句子间n元组重复度的指标,风格准确率则使用生成句子的困惑度ppl、以及一个预训练好的风格判别器给出的风格准确率cls。可以看到如表1所示,我们的方法相比之前工作在几乎所有指标上取得了显著的提升,特别是在FlickrStyle这个风格更复杂的数据集上。这也侧面证实了以往工作忽略了生成描述和图像内容一致性这个问题,而我们的方法能够在融入语言风格的同时保持和图像内容的一致性。

1:内容准确性和风格准确性3b50353b363d79bdd800a3fee5a9b5f9.png

4.2多样性

我们比较将我们的方法与编码器-解码器基线模型在两类多样性上进行了比较。图6展示了两类多样性以及我们方法的效果。

777198c5469aa53a9e6033925429ff28.png6:两类多样性及样例展示

第一类是图像间的多样性(Diversity across Images),也就是我们希望同一场景下不同图像生成的风格化描述应该是多样的。为此我们考虑了:1.唯一性,不同的风格短语战全部风格短语的比例;2.均匀性,风格词概率分布的熵(下式)。从下表2结果中可以看到,在七种典型场景下(各种人物以及动物),我们的CVAE模型均显著高于编码器-解码器基线,但距离人类的表现还有不少距离。

5932d6802c57f25c0f854687e7c9f389.png

2:相似场景下风格化描述多样性ded6426b96ccca7e63bed21e7b8fc27f.png

第二类是经典的为一张图像生成多个风格化描述的多样性。为此我们考虑了图像描述领域中量此类多样性的两个指标:DistinctDiv-n,前者计算不同的风格短语的比例,后者计算不同的n元组的比例。从表2中可以看到,我们的方法同样优于基线模型。

3:为一张图像生成多个风格化描述的多样性14d015f4e6b71c9254ca195815ca0cc7.png

4.3效果分析

为了展示分析对比学习和条件变分自编码器框架的效果,我们进行了一些可视化。

7给出了使用对比学习前后的特征空间分析,绿色代表的是目标对象词特征,红色是图像特征。可以看到对比学习很好地对齐了两类特征(例如狗的目标对象词特征和对应图像特征十分相近),从而成功统一了成对事实性数据和非成对风格数据的训练。

eafa7fcf57098820bd284c0905e9d65f.png7:对比学习效果

如图8所示,训练好的CVAE隐空间实际上被按照风格划分为不同的区域,并且在每个区域中编码了多种多样的风格表达,例如对于浪漫的风格,这里展示了其中几个点对应的风格表达,有enjoying the beauty of naturewith full joy等等;因此,测试时在每个区域中采样即可得到多样化的风格描述。

7dad6aadfb658e4e0243d90582a3da71.png8:条件变分自编码器隐空间

05

总结

本工作为图像风格化描述任务提出了一个使用对比学习和条件变分自编码器的新颖框架ADS-Cap。我们的模型能够高效地利用非成对风格文本语料库训练,并能够生成视觉内容准确、文本风格可控且风格表达多样的图像风格化描述。在两个图像风格化描述benchmark上的实验证明了我们方法的有效性。

06

参考文献

[1] Gan, C., Gan, Z., He, X., Gao, J., Deng, L.: Stylenet: Generating attractive visual captions with styles. In: CVPR (2017)

[2] Guo, L., Liu, J., Yao, P., Li, J., Lu, H.: MScap: Multi-style image captioning with unpaired stylized text. In: CVPR (2019)

[3] Zhao, W., Wu, X., Zhang, X.: Memcap: Memorizing style knowledge for image captioning. In: AAAI (2020)

[4] Radford, A., Kim, J.W., Hallacy, C., Ramesh, A., Goh, G., Agarwal, S., Sastry, G., Askell, A., Mishkin, P., Clark, J., et al.: Learning transferable visual models from natural language supervision. arXiv preprint arXiv:2103.00020 (2021)

[5] Mathews, A., Xie, L., He, X.: Senticap: Generating image descriptions with sentiments. In: AAAI (2016)


📝论文解读投稿,让你的文章被更多不同背景、不同方向的人看到,不被石沉大海,或许还能增加不少引用的呦~ 投稿加下面微信备注“投稿”即可。

最近文章

COLING'22 | SelfMix:针对带噪数据集的半监督学习方法

ACMMM 2022 | 首个针对跨语言跨模态检索的噪声鲁棒研究工作

ACM MM 2022 Oral  | PRVR: 新的文本到视频跨模态检索子任务


投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

069bf753db52768fa65f387227b494c4.png

记得备注~

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值