用一句话描述给定图像中的主要信息,挑战中文语境下的图像理解问题。尝试自然语言处理与计算机视觉技术结合的力量
https://challenger.ai/competition/caption/subject
图像中文描述问题融合了计算机视觉与自然语言处理两个方向,是用人工智能算法解决多模式、跨领域问题的典型代表。参赛者需要对给定的每一张测试图片输出一句话的描述。描述句子要求符合自然语言习惯,点明图像中的重要信息,涵盖主要人物、场景、动作等内容。此次发布的图像描述数据集以中文描述语句为主,与同类科研任务常见的英文数据集相比,中文描述通常在句法、词法上灵活度较大,算法实现的挑战也较大。组委会将通过客观指标(BLEU,METEOR,ROUGEL和CIDEr)和主观评价(Coherence,Relevance,HelpfulforBlind),并结合答辩表现,对参赛队伍进行评价。
数据形式包含图像和对应5句中文描述,以下图为例。
中文描述
1)蓝天下一个穿灰色T恤帅小伙以潇洒的姿势上篮
2)蔚蓝的天空下一位英姿飒爽的男孩在上篮
3)蓝天下一个腾空跃起的男人正在奋力地灌篮
4)一个穿着灰色运动装的男生在晴朗的天空下打篮球
5)一个短头发的男孩在篮球场上腾空跃起
选手提交的预测结果需要对每一张图片输出一句预测的中文描述语句,提交的预测文件格式存储为JSON,按照以下格式进行提交:
[
{
"image_id":"d9a9a8cfb9fdebe3f4f6996756ae23ae0e473d0c",
"caption": "蓝天下一个男孩在投篮"
},
{
"image_id":"a0f6bdc065a602b7b84a67fb8d14ce403d902e0d",
"caption": "一个小男孩在安静的小河边钓鱼"
},
...
]
本赛道采用客观和主观相结合的评价标准,和答辩环节得分的总和 (根据主客观得分优秀者进入答辩环节)。
客观评价总览
客观的评价标准包括:BLEU,METEOR,ROUGEL,CIDEr。根据这四个评价标准得到一个客观评价的得分。[1]
其中的S(team)@METEOR表示在METEOR标准下进行标准化后的得分,Sm1(team)表示客观评价分数的加权平均值,然后对分数Sm1(team)进行标准化处理得到的客观评价分数。
我们将提供验证脚本,帮助选手在线下测试模型效果。测试脚本、以及详细使用方法,将与验证数据集同时发布。
提示:图像中文描述比赛评测过程使用jieba 0.38进行中文分词。
主观评价总览
主观的评价包括:
对测试结果中的子集由评委团进行主观评价,对每个代表队的候选句子进行打分(1-5),分数越高越好。打分遵循三个原则。
流畅度(Coherence):评价生成语句的逻辑和可读性。
相关性(Relevance):评价生成语句是否包含对应的图像中有的重要的物体/动作/事件等。
助盲性(Help_For_Blind):评价生成语句对一个有视力缺陷的人去理解图像有帮助的程度。
得到主观评价排名m2,公式如下:
其中S(team)@Coherence表示在Coherence上进行标准化后的分数。
综合主观和客观评价
综合主客观评价排名选出优秀的团队参加最终的答辩
对Sm1m2分数进行从高到低排序,优选出若干只队伍进入答辩环节。
答辩分数
我们根据主客观的排名情况,选择若干只优秀的队伍进入最终答辩环节,Sm3(team)为答辩评分标准化后的分数。
Sm3(team) is the presentation performance score. Similarly Sm3(team) needs to be normalized.
最终得分
其中Sm1m2m3(team)为综合客观指标、主观指标与答辩得分的最终分数,权重待定。本次比赛将根据三项加权的最终分数从高到低进行排名。
详细客观评价方法
本次图像描述比赛客观评价采用四种常用评价标准:BLEU, METEOR, ROUGE和 CIDEr。
BLEU (Bilingual Evaluation Understudy)
BLEU是一种通过计算候选译文和参考译文中n元词共同出现的程度,来衡量候选句子与参考句子相似度的机器翻译度量方法。计算公式如下:
其中候选语句(待评测语句)可以表示为C,而对应的一组参考语句为Si={si1,si2,⋯}∈S。n-gram表示n元词,令ωk 表示第k组的n-gram。hk(ci)表示ωk在候选语句中ci的出现次数,hk(sij)表示的是ωk在参考语句sij中的出现的次数,其中CPn(C,S)是一个精确度度量。前面的b(C,S)是BLEUN的BP惩罚因子。
其中lc表示候选语句ci的长度,ls表示参考语句sij的有效长度。
ROUGEL
ROUGE是用来评价文本摘要算法的自动评价标准集,本次图像中文描述比赛主要采用其中的ROUGEL作为评价标准。
ROUGEL是基于LCS(Longest Common Subsequence)的一种测量方法。LCS是序列X和序列Y的最大长度公共子序列的统称。ci表示的待评价语句,sij表示参考语句。
其中Rl和Pl的定义是:
其中β=RlPl。
METEOR
METEOR是用来评价机器翻译输出的标准。该方法将候选语句和参考语句的词进行逐一匹配,METEOR需要预先给定一组类似于WordNet的同义词库,通过最小化对应语句中连续有序的块来得出。METEOR的计算为对应候选语句和参考语句之间的准确率和召回率的调和平均。METEOR的计算公式:
其中 Pen 的定义是:
Pen=γ(chm)θ
其中Fmean的定义是:
其中Pm的定义是:
其中Rm的定义是:
其中,α、γ和θ均为评价的默认参数,m是基于类似于WordNet中文同义词库校准的同义词库。Fmean是上文所说的LCS两个句子的相似性。
CIDEr (Consensus-based Image Description Evaluation)
CIDEr通过对每个n元组进行Term Frequency Inverse Document Frequency (TF-IDF) 权重计算,来衡量图像描述的一致性。
其中的CIDErn(ci,Si)的定义是:
其中I表示所有图片的集合,Ω表示的是n-grams的词表,gn(cij)和gn(sij) 是TF-IDF的向量,其他符号在BLEU处有定义。
分数标准化方式
由于每个指标的范围与分布都不尽相同,所以在计算加权平均值之前,我们需要将所有分数进行标准化处理。具体的标准化公式为:
其中x为选手在该项评价指标所得的绝对分数,~x为标准化后的相对分数,^σ是该项评价指标上所有选手的绝对分数的标准差。
其中^μ是该项评价指标上所有选手的绝对分数的均值。