Let there be a clock on the beach: Reducing Object Hallucination in Image Captioning

抽象的

用缺失或不存在的对象来解释图像被称为图像字幕中的对象偏差(幻觉)。这种行为在最先进的字幕模型中非常常见,这是人类所不希望的。为了减少字幕中的物体幻觉,我们提出了三种简单而有效的句子训练增强方法,不需要新的训练数据或增加模型大小。通过广泛的分析,我们表明所提出的方法可以显着减少我们的模型对幻觉指标的对象偏差。此外,我们通过实验证明我们的方法减少了对视觉特征的依赖。我们所有的代码、配置文件和模型权重均可在线获取1。

1介绍

在他的开创性著作中 [24],库恩表示,异常现象的发现通常会带来新的范式。机器学习 (ML) 早期依赖于手工编码/制作的功能(简单、优雅的功能更受青睐)来创建模型。然而,有一个异常现象比手工制作的功能表现得更好,它导致了一种范式转变,称为数据的不合理有效性 [16],他们只是建议“遵循数据”。追随数据只是范式变革的第一步,第二步是数据量。 MSCOCO等大数据集的引入 [26]和 ImageNet  [10]结合当前计算技术的出现,深度学习取得了重大成就 [25]。尽管如此,仍然有许多关于深度模型所利用的各种失败案例和捷径的著作发表了 [14]。这些快捷方式尤其可以在视觉和语言任务中找到,例如以物体幻觉形式的图像字幕和视觉问答(VQA)  [33],语言优先 [15],关注背景 [5],虚假相关性 [46] , 行动偏见 [46]和性别偏见 [17 号]。

参见标题

UD:一个拿着冲浪板在海滩上的男人 
AoA:一名男子站在海滩上,手里拿着飞盘 
我们的(UD):一个男人站在靠近大海的海滩上 
我们的(AoA):一个拿着时钟站在海滩上的男人 

图1:众所周知,图像字幕的标准方法会对经常同时出现的物体产生幻觉,例如海滩、飞盘或冲浪板。我们的方法能够通过标准化共现统计来减少对象偏差,从而减少幻觉对象并正确预测较低概率的对象。

由于多种原因,解决图像字幕中的对象偏差问题非常重要。首先也是最重要的是,在无法正确识别物体的情况下描述图像对于人类来说是不可取的 。33]。对于视障人士来说尤其如此,他们更喜欢正确性而不是覆盖范围 [29]出于显而易见的原因。其次,即使字幕模型的结果在自动评估指标中被推向极限,但这并不意味着对象偏差/幻觉的减少 [33]。最后,解决物体幻觉对于我们模型的泛化能力至关重要,使它们能够更容易地适应看不见的领域。

显然,幻觉无法通过从同一个有偏见的世界收集更多数据来纠正。共现模式不会改变或者会被放大。换句话说,这些偏差似乎不会随着数据集的扩大和模型大小的增加而消失 [14]。

在这项工作中,我们证明可以在不需要更多数据或增加模型大小的情况下减少对象偏差,同时不影响模型的计算复杂性和性能。更具体地说,我们通过提供对象标签作为附加输入来调整任何现有的字幕模型,并采用简单而有效的采样策略,其中包括人为地更改字幕中的对象,例如将句子“一个正在玩狗”修改为“叉子正在和狗玩耍”。随着句子的变化,我们还以相应的方式替换提供给模型的对象标签。

原因很简单,可以追溯到共现统计。通过改变对象的共现统计数据,我们减少了模型对语言先验和视觉特征的依赖,如图1所示 。我们在这项工作中的贡献如下:

  • • 

    一种简单的方法,可应用于任何字幕模型以减少对象偏差,无需额外的训练数据或增加模型参数。

  • • 

    我们改进了幻觉指标 CHAIR 的结果 [33]同时在图像字幕评估指标上获得比我们的基线模型更高的提升。

  • • 

    我们证明我们的技术适用于两种常用的损失函数:交叉熵和 REINFORCE  [32]算法。

2相关工作

随着编码器-解码器框架的进步 [8]注意 [4]在机器翻译中,自动图像字幕使用类似的架构开始发展 [39,45]。字幕的下一个进步来自于使用预训练的对象检测器作为特征提取器,具有两种类型的注意力,即自上而下和自下而上的注意力 [3]。同时,还证明了使用 REINFORCE 算法训练字幕模型 [42],直接优化评估指标,比使用交叉熵损失有好处 [32]。最近,随着变形金刚的呈现 [36],一个新的模型系列 [19]取得了最先进的成果。图像字幕最近转向了新的方向,例如生成不同的描述 [38,12,44]通过允许接地和可控性 [9,47,7]同时使用各种上下文信息 [6,35]。

然而,尽管经典字幕指标不断改进,但仍有许多偏差被利用,从而在模型中产生偏差。为了补偿已知模型在特定设置中更喜欢某种性别而不是其他性别的性别偏见,  [17 号]建议用置信度/外观损失来调整原始的交叉熵损失。字幕中的另一个偏见与动作偏见有关,其中某些动作比 [描述的其他动作更受欢迎。46]他们运用因果关系 [31]进入字幕模型。更具体地说,他们提出的方法使用 4 层 LSTM,并在 ConceptNet 上运行预期平均值 [27]标题中生成的每个单词的概念,这会带来严重的计算过载。相似地,[1]使用生成模型修改图像,以减少视觉问答任务中虚假相关性的影响。

[33]表明当代字幕模型容易出现对象偏差。此外,他们描述了评估指标仅仅测量真实情况和生成的标题之间的相似性,而不是捕获图像相关性。因此,他们提出了两个指标来量化物体幻觉的程度,即 CHAIRs 和 CHAIRi。 CHAIR 指标评估我们的模型在句子级别(因此为 CHAIR)和对象级别(因此为 CHAIRi)产生了多少错误的对象标签。令人惊讶的是,物体幻觉问题并没有得到应有的重视。在这项工作中,我们尝试在不扩大模型大小或使用额外数据的情况下减少对象偏差。我们遵循一个简单的策略来做到这一点,该策略可以与任何接受对象检测特征作为输入的模型一起使用。

参见标题

图2:当前大多数图像字幕模型都利用从对象检测网络中提取的对象级视觉特征(左图)。在本文中,我们提出了一个简单的调整,其中还提供对象标签作为输入(中心图)。标签嵌入与视觉特征的串联使我们能够在对象标签和模型监督(标题)上采用数据增强技术来修复模型中的对象偏差(右图)。

3方法

如前所述,我们试图减少现有模型中固有存在的对象偏差。对象偏差的主要原因是训练数据集图像中特定对象类别的系统共现,因此我们假设使共现统计矩阵更加均匀将使我们的模型产生更少的幻觉。因此,我们设计了一系列数据增强技术来实现这一目标。

3.1对任何字幕模型的小调整

我们首先对图像字幕中的模型进行简要和概括的介绍。引入自上而下自下而上的注意力之后 [3],大多数现有的图像字幕模型都利用从对象检测网络中提取的对象级视觉特征。更正式地说,给定一个图像我,一组边界框特征�={�1,�2,……,��}通过将其传递给预训练的对象检测器来获得𝒪,IE。 �=𝒪​(我)。这些功能与注意力机制相结合,稍后将被输入到语言模型中(ℒ) 生成一个句子�={�1,�2,……,��}其中最常见的变体ℒ是变形金刚 [36]和 LSTM  [18]:

� ̄=�​�​�​(�,�)磷​(��),�=ℒ​(��|� ̄,�1,�2,……,��-1)(1)

从图2的左侧可以更清楚地看到这一表述 。

我们对上述公式的调整是简单地将图像中找到的对象标签与边界框特征连接起来(图 2的中间部分)。更正式地说,我们扩展了边界框特征集�到�~={�1,�2,……,��,我1,我2,……,我我}在哪里我我是个我�​�嵌入对象标签。连接后,我们替换�和� ̄并遵循公式 1中概述的完全相同的训练程序 。

标签嵌入与视觉特征的串联使我们能够使用数据增强技术。由于我们使用标签作为模型的输入,因此我们可以根据需要直接更改它们。在以下部分中,我们将描述标签增强背后的策略。

3.2句子简化

我们所有数据增强方法的第一步是句子简化。通过句子简化,我们指的是删除场景中对象的标题中使用的形容词。例如,我们想将句子“一只小黑猫坐在一张旧桌子上”修改为“一只猫坐在桌子上”。原因是双重的,其中之一是有些形容词不能适用于所有物体,例如“小”和“黑”可以用于猫,但当猫被人为地用另一个物体改变时,这将是不正确的例如大象或香蕉。其次,以这种方式简化句子提供了句子的另一种变体,充当字幕模型的正则化器类型,以利用数据集中现有的语言。

为了实现这个目标,我们首先用词性(POS)分析每个标题,并找到与句子相对应的所有名词短语。然而,这些名词短语不一定必须指图像中找到的对象。这就是为什么,我们利用数据集中存在的对象类的同义词列表(例如 MSCOCO 中的 80 个对象)并过滤包含对象名称或其同义词的名词短语。最后一步,我们用短语的词根替换整个名词短语。

3.3句子的扩充

简化句子后,我们采用不同的采样策略来选择要替换的对象。更正式地说,给定一个包含对象的句子哦我和哦�,我们对对象进行采样哦�取代哦�根据分布磷​(哦�|哦我)。现在,我们详细解释我们使用哪些分布来扩充句子。

3.3.1均匀采样

均匀采样的选择受到我们关于创建均匀对象标签共现矩阵的假设的启发。以最简单的形式,我们利用均匀分布进行采样,其中

磷​(哦�|哦我)=磷​(哦�)=1/氮。(2)

换句话说,在忽略数据集统计数据的情况下,每个对象都有相同的采样概率。接下来的两个分布考虑了丢弃的数据集统计信息。

3.3.2逆多项式采样

对于任何给定的数据集,人们可以获得的最容易获得的统计数据是共现矩阵中号ε右氮×氮在哪里中号我​�指对象的共现统计哦我和哦�和氮是对象的数量。我们定义了一个新的分布,它考虑了称为逆多项式的数据集统计数据,利用中号在哪里

磷​(哦�|哦我)=1中号~我​�​在哪里​中号~我​�=中号我​�Σ�中号我​�(3)

通过逆多项式,我们对对象进行采样哦�如果对象的出现率较低哦我。另一方面,如果对象哦�和哦我在数据集中频繁同时出现,则选择的概率哦�会相当低。

3.3.3更新共现矩阵

尽管逆多项式采样增加了对低频对进行采样的机会,但它防止了为低频对创建新的偏差。为了解决这个问题,我们决定跟踪矩阵中号并根据采样对不断更新。更正式地,分布定义为:

磷​(哦�|哦我)=1中号~我​�​在哪里​中号~我​�=中号我​�Σ�中号我​�中号我​�=中号我​�+1,中号我​�=中号我​�-1(4)

通过在训练中跟踪共现统计数据,可以减少模型找到捷径并允许更快收敛到统一模型的前景中号。

4实验

4.1数据集和基线模型

斯科科: [26]。我们使用最常用的字幕数据集 MSCOCO  [26]。我们遵循有关使用“Karpathy”分割的文献 [21]。该分割包含 113,287 个训练图像,每个图像有 5 个标题,以及 5k 个用于验证和测试的图像。

评估指标:为了评估字幕质量,我们报告了标准的自动评估指标;苹果酒 [37] , BLEU  [30]、流星 [11], 香料 [2]。此外,我们还包括新引入的指标 SPICE-U  [41]这是 SPICE 的一个变体,它奖励句子的独特性。最后,我们提供幻觉指标 CHAIRs  [33]和 CHAIRi  [33]分别用于句子和宾语级别。在 CHAIR 指标中,越低越好。

上下(UD): [3]。自下而上和自上而下的注意力模型利用了在 VG 上预训练的目标检测器提出的显着图像区域 [23],然后通过采用根据语言模型的隐藏状态计算的注意机制来对区域进行加权。

迎角: [19]。 Attention注意力模型扩展了传统的Transformers  [36]模型通过包含另一个注意力来确定注意力结果和查询之间的相关性。当我们使用给定的对象标签作为输入进行训练时,我们将这些模型称为 UD-L 和 AoA-L。

4.2实施细节

我们所有的模型都是在公开可用的代码2之上实现的。我们使用亚当 [22]优化器的批量大小为 10,UpDown 的学习率为 0.0002 和 0.0005  [3]和迎角 [19], 分别。两个模型都训练了 30 个 epoch,我们根据 Cider-D 上验证集的最佳得分保留了最佳模型 [37]。我们生成没有束搜索的句子,并且两个模型都使用[提供的视觉特征 3]。为了嵌入对象标签,我们利用 FastText  [20]。

表格1:Karpathy 测试分割上的图像字幕模型结果。 * 数字由[提供  33]波束搜索 5。B-4:Bleu-4,M:Meteor,C:苹果酒,S:Spice,S:Spice-U,CHs:CHAIRs,CHi:CHAIRi,UD:UpDown,AoA:注意上的注意, Uni:均匀采样,Inv:逆多项式采样,Occ:共现更新。在 CHAIR 指标中,越低越好。

交叉熵自我批评
   模型 B-4 ↑中号 ↑C ↑S ↑CH ↓CHi ↓ ↑B-4 ↑中号 ↑C ↑S ↑CH ↓CHi ↓ ↑
1.1   UD-VC  [4039.529130.5-\列颜色gray10.3\列颜色gray6.5-----\columncolor灰色-\columncolor灰色--
1.2   迎角-VC  [4039.529.3131.6-\columncolor grey8.8\列颜色gray5.5-----\columncolor灰色-\columncolor灰色--
1.3   UD-DIC  [4638.728.4128.221.9\列颜色gray10.2\列颜色gray6.7-----\columncolor灰色-\columncolor灰色--
1.4   UD-MMI  [4122.7728.84106.4220.72\列颜色gray7.8\columncolor灰色-25.27----\columncolor灰色-\columncolor灰色--
1.5   迎角-MMI  [4127.1830.39128.1522.81\列颜色gray9.28\columncolor灰色-26.53----\columncolor灰色-\columncolor灰色--
1.6   光盘盖 [4121.5827.42110.920.27\列颜色gray10.84\columncolor灰色-24.52----\columncolor灰色-\columncolor灰色--
1.7   LRCN  [13] *-23.990.817.0\列颜色gray17.7\列颜色gray12.6--23.593.016.9\列颜色gray17.7\列颜色gray12.9-
1.8   足球俱乐部 [32] *-24.995.817.9\列颜色gray15.4\columncolor灰色11--25103.918.4\columncolor grey14.4\columncolor grey10.1-
1.9   Att2In  [32] *-25.810218.9\列颜色gray10.8\列颜色gray7.9--25.7106.719\列颜色gray12.2\columncolor grey8.4-
1.10   UD  [3] *-27.1113.720.4\columncolor grey8.3\列颜色gray5.9--27.7120.621.4\列颜色gray10.4\列颜色gray6.9-
1.11   NBT  [28] *-26.2105.119.4\列颜色gray7.4\列颜色gray5.4-----\columncolor灰色-\columncolor灰色--
1.12   甘 [34] *-25.7100.418.7\列颜色gray10.7\列颜色gray7.7-----\columncolor灰色-\columncolor灰色--
1.13   UD33.226.9108.420.0\columncolor grey10.1\列颜色gray6.924.0536.527.8121.521.3\列颜色gray11.9\列颜色gray7.723.85
1.14   UD-L34.427.3112.720.7\列颜色gray6.4\ columncolorgray4.124.6837.728.6124.722.1\列颜色gray5.9\列颜色gray3.725.41
1.15   UD-L + 大学34.227.2112.420.6\列颜色gray6.3\列颜色gray4.024.6137.628.7125.222.3\columncolor灰色5.8\columncolor灰色3.725.54
1.16   UD-L + Inv34.327.3112.620.7\列颜色gray6.2\列颜色gray4.024.0537.828.7125.422.3\列颜色gray5.9\列颜色gray3.825.60
1.17   UD-L + Occ33.927.0110.720.3\columncolor灰色5.9\columncolor灰色3.824.5237.728.7125.222.2\columncolor灰色5.8\columncolor灰色3.725.58
1.18   迎角33.727.4111.020.6\columncolor grey9.1\列颜色gray6.224.5738.828.7127.222.4\列颜色gray9.6\列颜色gray6.124.68
1.19   攻角-L33.127.0110.020.3\列颜色gray7.1\列颜色gray4.424.3035.928.0119.621.7\列颜色gray7.8\列颜色gray4.824.81
1.20   AoA-L + Uni34.127.2111.420.5\columncolor灰色6.2\columncolor灰色3.924.5835.127.8117.721.4\columncolor grey7.3\列颜色gray4.524.58
1.21   AoA-L + Inv34.327.3112.020.6\列颜色gray6.5\ columncolorgray4.124.9335.728.0119.221.8\列颜色gray7.5\列颜色gray4.624.93
1.22   迎角-L + Occ34.327.1111.320.5\columncolor灰色6.2\columncolor灰色3.924.5734.527.5116.021.1\columncolor灰色7.0\columncolor灰色4.324.20

我们使用文献中常用的训练损失,即交叉熵和 REINFORCE  [32]。对于我们模型的每个变体,我们根据抛硬币随机选择使用原始句子或增强句子作为基本事实。所有通过我们的增强训练的模型都经过微调,以允许更快的收敛,并看看我们是否可以减少模型的“学习”偏差。最后,我们始终使用地面实况对象标签作为模型的输入,并使用 Detectron2 的 X101-FPN  [43]库获取对象标签以进行测试。超参数所需的所有代码、模型权重和配置文件将在接受后发布。

4.3与现有技术的比较

我们在表 1中展示了我们的模型的结果以及最先进的模型结果 。首先也是最重要的,UD-VC 和 AoA-VC(行表 1 .表 1表 1 .表 1)使用从最先进的对象检测器中提取的特征,同时与 UpDown 提供的原始特征相连接 [3],IE。他们在模型训练中使用 2 FasterRCNN 架构。而 UD-DIC(表 1行。表 1)使用 4 个深度 LSTM  [18]寻找生成的单词和 ConceptNet 之间的匹配 [27]标签。此外,UD-MMI(表1。表 1)和 AoA-MMI(表1。表 1)在没有任何视觉特征的情况下训练 LSTM 来检测常见和非唯一的句子,并在稍后的推理时使用。从上述模型中,我们观察到击败最先进的结果或增加模型大小甚至使用更好的特征并不会导致我们的模型产生更少的幻觉。

备注1

模型大小(参数)的增加或图像字幕指标的增加不会导致 CHAIR 指标的减少。

这个结论的子变体也可以在 REINFORCE 中看到 [32]训练。字幕社区的常见做法是首先使用交叉熵训练模型,然后使用自我批评损失来训练模型 [32]关于 CIDER-D  [37]。虽然这种训练确保了自动指标的显着提升,尤其是在 CIDER 上,但它使我们的模型产生更多幻觉(可以在行表 1中看到。表 1表 1。1表 1。1表 1。11)。

备注1.1

自我批评训练会导致字幕指标的增加,同时使模型产生更多的幻觉。

我们要讨论的下一点是关于我们从 表 1开始的方法。表格1。只需添加对象标签作为输入,我们就注意到两个模型的 CHAIR 指标都有所改进。这一进展也可以在 UpDown 模型的经典图像字幕指标上观察到。此外,我们注意到标签的添加也达到了表 1中报告的数字 。表 1同时显着减少了句子和宾语水平上的宾语偏差。最后,我们看到这种连接物体标签和视觉特征的简单技术已经在物体幻觉方面取得了最先进的结果,降低了 1% 到 4% 左右。

表2:Karpathy 测试的结果分裂。这些数字是通过使用地面实况对象标签而不是使用对象检测器获得的。

交叉熵自我批评
模型八月蓝4 ↑流星 ↑苹果酒 ↑香料 ↑椅子 ↓椅子里 ↓蓝4 ↑流星 ↑苹果酒 ↑香料 ↑椅子 ↓椅子里 ↓
UD-34.627.4112.920.84.52.837.928.7125.922.33.52.2
UDU34.627.4113.420.842.538.028.9126.222.53.72.3
UD我是34.527.4114.020.93.92.438.028.8126.422.53.92.4
UD奥克34.027.1111.620.53.62.238.028.8126.422.53.52.1
迎角-33.427.2111.420.54.42.736.228.3121.322.04.32.6
迎角U34.427.3112.520.72.71.635.528.0119.221.73.92.3
迎角我是34.627.4113.420.83.11.936.128.3121.022.03.92.3
迎角奥克34.427.4113.020.72.71.634.927.7117.421.33.72.2
备注2

仅仅将标签与视觉特征连接起来就可以减少我们模型的幻觉,同时在 CHAIR 指标上击败最先进的模型。

在我们关注增强技术之前,我们想指出,将物体幻觉从 10% 减少到 6% 并不等同于将其从 6% 减少到 2%。原因是有 2 个不同的因素影响幻觉,其中之一是我们要解决的数据集偏差,另一个是嘈杂且不正确的 FasterRCNN 特征。从下一节中,我们看到我们的方法上限约为 2-3%,这表明其余的幻觉主要来自视觉特征。也就是说,可以看出我们的结果甚至更好了 表 1行的结果。表1和行 表1表 1与我们提出的技术相比大约提高了 0.5 到 1%。

备注3

我们证明我们提出的技术可以减少相同模型架构上的对象偏差。

此外,我们指出,尽管我们通常会获得其他常见指标的下降,但使用共现更新技术,我们总是能在 CHAIR 指标上获得最佳结果。我们还看到,逆多项式采样可以在经典字幕指标中实现最佳性能。此外,共现更新始终在所有不同的采样中获得最佳的 CHAIR 分数。

备注3.1

逆多项式在标准字幕指标上得分最高,而共现更新在 CHAIR 指标上得分最高。

最后,我们报告最近引入的指标 SPICE-U  [41]它评估标题的独特性和信息量。我们对上述指标感兴趣,因为我们担心所提出的增强可能会使字幕模型由于句子简化而产生更多重复或信息量更少的字幕。从表 1中可以看出 ,即使在标准图像字幕指标有所下降的情况下,我们仍然在 SPICE-U 上有所改进。表 1行中 。表 1-1从表 1可以看出,我们在自我批评培训方面甚至有 2% 的提高。这是相当令人鼓舞的,尤其是与表 1行中的 SOTA 数字相比 。表 1-1表 1中我们甚至在无需训练额外 LSTM 的情况下击败了这些数字。

备注4

我们的技术可以改进或至少保持与生成信息丰富且独特的字幕的基本模型相同。

4.4如果我们有完美的标签提取器怎么办?

正如标题所示,我们试图找出我们技术的上限。换句话说,由于众所周知对象检测器远未提供完美的标签,因此我们使用对象标签的真实注释来测试我们的方法,以查看不同方法的完整性能,如表 2所示。我们使用表1中提供的相同模型 。

第一个结论是,我们看到使用地面事实后所有指标都得到了改善。这是完全符合预期的,因为我们已经使用真实注释进行了训练。

备注5

有了完美的物体检测器,我们就可以改进所有指标。

一个重要的评论是,带有标签的模型和经过我们的增强训练的模型之间的差距要大得多。特别是,对于 UpDown,我们看到差距变为 0.9% 和 0.6%,而对于 AoA,CHAIR 和 CHAIRi 上的差距分别为 1.7%、1.1%。这表明,随着目标检测器性能的进步,我们提出的增强将达到更高的值。

备注5.1

我们提出的方法可以通过获得更精确的标签来实现更高的性能。

最后,可以看出,在所有模型中,无论是使用交叉熵还是自我批评进行训练,共现更新总是在 CHAIR 指标上取得最佳分数,证实了我们关于创建统一共现矩阵导致下降的假设关于客体偏见。

备注5.2

通过使共生矩阵统一,可以使我们的模型具有最小的对象偏差。

(A)主席分数

参见标题

(二)CHAIRi 分数

参见标题

图3:低频对上的条形图。我们为我们训练的所有模型提供对象检测器标签和地面实况标签。我们选择包含少于 200 个共现的对象对的句子。

FRCNN地面真相
维斯壮举标签椅子椅子里椅子椅子里
UD-L9.26.6--
UD-L + 大学9.46.7--
UD-L + Inv9.26.6--
UD-L + Occ9.87.1--
UD-L35.829.135.728.7
UD-L + 大学26.118.824.717.3
UD-L + Inv29.2212819.8
UD-L + Occ20.213.617.111.2

表3:Karpathy 测试的结果分裂。我们要么只向模型提供视觉特征,要么提供对象标签嵌入。

4.5数据增强对模型的影响

我们的下一组实验是为了找出所提出的增强为模型提供了什么。为了解决这个问题,我们决定在推理时将视觉特征或对象标签归零,以了解它们对幻觉的重要性。我们的数字如表3所示 。首先,我们意识到使用视觉特征的结果比使用对象标签的结果要好得多。这是预料之中的,并且可以被认为是夺走了模型的“眼睛”。然而,我们发现视觉特征对于 UD-L 来说比通过增强训练的模型(UD-L+Occ 和 UD-L+Uni)更重要。

备注6

所提出的训练使模型更加重视标签,同时减少对视觉特征的依赖。

此外,可以看出,与其他模型相比,我们使用共现更新训练的模型对视觉特征的重视程度较低或利用程度较低。当我们检查视觉特征的归零时,这一点尤其得到加强。我们认识到,使用我们的增强训练的模型更多地利用了提供的标签,其中从 UD-L 到 UD-L+Occ,提高了 15%。该说法的另一个证据是,在 UD-L 中,从物体检测标签到地面实况,仅仅有 0.1%、0.4% 的改进。此外,我们甚至可以看到,当使用基本事实作为模型的输入时,这种差距会更大。我们注意到,当使用 Ground Truth 时,CHAIR 和 CHAIRi 的相同差异分别增加到 18% 和 17%。

备注6.1

在其他 3 个模型中,共现更新对标签的利用最多。

参见标题

参见标题

参见标题

参见标题

参见标题

UD :一只狗坐在湖边的草地上 UD :一名男子踩着滑板在街上跳跃UD :一个小孩子手里拿着遥控器UD :一群人在海滩上放着风筝UD :一位女士正在看手机
AoA :一只狗在水体附近的田野里奔跑 AoA :一个人踩着滑板在空中AoA :手里拿着遥控器的婴儿AoA :一名男子站在海滩上的遮阳伞下AoA :手里拿着手机的女人
我们的(UD):一匹马坐在湖边的草地上 我们的(UD):一名男子在交通灯上表演恶作剧我们的(UD):婴儿嘴里叼着手机我们的(UD):一个男人拿着冲浪板站在海滩上我们的(UD):一个人拿着一把剪刀
我们的 (AoA) :一匹马在靠近水体的田野中奔跑 我们的(AoA):一名男子在红绿灯上跳跃我们的(AoA):一个小女孩手里拿着手机我们的(AoA):一群人站在海滩上我们的(AoA):女人是一把棕色的剪刀

图4:来自我们的基线和共现更新模型的一些定性样本(称为我们的)。

4.6使用不常见的对象对为图像添加标题

为了进一步研究我们提出的公式,我们 为表 1中的所有模型 提供了图3表 1-表 1表格1。在图 3中,我们计算了低共现对象对的CHAIRs(图 3(a))和 CHAIRi(图 3(b) )。为此,我们使用共现小于 200 的对象对过滤了 MSCOCO 数据集的图像。这占 MSCOCO 测试集的 23.6%。可以看出,原始模型 UD(表1。表 1)和 AoA(表1。表 1)在低频对上比其他模型具有更高的对象偏差,对于 CHAIR 和 CHAIR 上的两个模型均增加了约 2%。 CHAIRi 上的 UD 和 AoA 为 0.2%、0.3%。此外,我们在 UD-L 和 AoA-L 上看到更好的数字,因此简单的标签串联可以降低对象偏差。此外,通过使用完美标签(图 3中的橙色条),我们在低频对象对上获得了比表 2中计算的总数更好的数字。这表明我们提出的增强可以很好地处理低频对象对,无论是使用交叉熵还是自我批评进行训练。

此外,我们注意到原始模型和共现更新之间的差距在低频对上更大。因此,我们关于使共生矩阵尽可能均匀以降低对象偏差的假设是有效的。

4.7消融研究

SS椅子 [33]主席Ri  [33]
UD-L + 大学6.34.1
UD-L + Inv6.34
UD-L + Occ6.54.2
UD-L + 大学6.34
UD-L + Inv6.24
UD-L + Occ5.93.8

表 4:消融导致句子简化。

我们最后的实验是对句子简化的分析。为了查看建议的句子简化公式是否对对象偏差有任何影响,我们决定在有和没有句子简化的情况下运行 UpDown 模型。我们的结果见表 4

从表4可以看出 ,句子简化似乎对均匀和逆多项式采样没有太大影响。尽管我们在使用句子简化时总是能得到更好的结果,但由于随机性,我们只获得了 0.1%。

然而,句子简化对共现更新有显着影响。我们对这种现象的猜想是,由于共现更新比其他两个采样选择更多数量的各种对,因此模型发现形容词和替换对象之间的相关性。例如,“little”或“cute”通常用于男孩或女孩。当我们首先将短语“可爱的小男孩”替换为“可爱的小西兰花”,然后替换为“可爱的小时钟”时。该模型将学习将“可爱的小”短语首先与西兰花联系起来,然后与时钟联系起来。然而,在均匀采样中,由于本质上的均匀性,模型只会丢弃这种关联,而在逆多项式中,只有少数对将与该短语关联。这就是为什么我们在一致和逆多项式中没有看到很多破坏。

4.8定性结果

最后但并非最不重要的一点是,我们在图4中展示了一些有趣的定性样本 。我们的第一句话是,我们的模型在两个方面优于基线,其中之一是删除幻觉对象。这种行为可以在第三列和第四列中观察到,其中基线模型预测了冲浪板、飞盘、沙滩伞或风筝。这些例子展示了我们的模型所利用的强语言先验。

另一方面,我们的模型也优于基线,因为它们不仅删除了不正确的对象,而且还用正确的对象替换了它。例如,在图 4的第一(或第二)列中,虽然基线模型预测是狗(滑板),但我们的模型将其校正为马(交通灯)。一个重要的注释是句子的动词或动作预测保持不变,例如。坐、跑、跳,这些都需要动作增强技术。

最后,我们看到,即使在错误生成标题的情况下(参见第五列),我们的模型仍然可以识别正确的对象,但它们受到语言模型的限制。

5结论

由于描述无法正确识别对象的图像对于人类来说是不可取的,因此我们关注图像字幕模型中的对象偏差。为了减少图像字幕中的物体幻觉,我们提出了 3 种不同的采样技术来增强句子,将其视为基本事实,以训练图像字幕模型。通过广泛的分析,我们表明所提出的方法可以显着减少我们的模型对幻觉指标的对象偏差。此外,我们还证明,随着目标检测器的进步,我们的方法可以取得更高的分数。此外,我们发现我们建议的技术使模型更少地依赖于视觉特征,并通过使对象的共现统计变得均匀,从而使模型具有更好的泛化能力。但更重要的是,我们表明可以减少对象偏差,而无需额外的数据/注释或增加模型大小或架构。我们希望这项研究能够激发更多关于简单但有效的方法的研究,以训练深度模型,同时保持模型复杂性不变。

weixin151云匹面粉直供微信小程序+springboot后端毕业源码案例设计 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
This error usually occurs when the CUDA runtime system is unable to find the kernel image required to execute the CUDA code on the device. There are several possible causes for this error, including: 1. Incorrect installation of CUDA toolkit: Make sure that you have installed the CUDA toolkit correctly and that all required components are present. 2. Compatibility issues: Ensure that your device is compatible with the CUDA version you are using. Check the CUDA compatibility matrix to confirm. 3. Insufficient memory: If your device does not have enough memory to execute the kernel, you may encounter this error. Try reducing the size of your input data or increasing the memory available to the device. 4. Invalid kernel launch configuration: Verify that the kernel launch configuration is valid and does not exceed the device's capabilities. 5. Corrupted kernel image: If the kernel image is corrupted, you may encounter this error. Try rebuilding the kernel or reinstalling the CUDA toolkit. 6. Device driver issues: Ensure that your device drivers are up-to-date and compatible with your CUDA version. To resolve this error, you can try the following steps: 1. Check that your CUDA installation is correct and complete. 2. Verify that your device is compatible with the CUDA version and that the device drivers are up-to-date. 3. Check that your input data size is within the device's memory limits. 4. Verify that your kernel launch configuration is valid and does not exceed the device's capabilities. 5. Try rebuilding the kernel or reinstalling the CUDA toolkit if the kernel image is corrupted.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值