ICDAR 2019比赛及数据集下载
https://rrc.cvc.uab.es/?ch=16&com=tasks
任务-ICDAR2019对带有部分标签的大规模街景文本的强大阅读挑战
LSVT数据集将包含450、000张带有文本的图像,这些文本可在街道上自由捕获,例如,店面和地标。其中50,000个具有完整注释,分为i)30,000个训练集,ii)20,000个测试集。作为训练集的一部分,其余400,000张图像均进行了弱注释。
为了评估各个方面的文本阅读性能,我们在此大型街景数据集上引入了两个常见的任务,即文本检测和端到端文本识别。
- 文本检测,目的是将街景图像中的文本本地化为文本行级别,这与所有以前的RRC场景文本检测任务相似。
- 端到端文本点,目的是以端到端的方式定位和识别图像中的所有文本行。
注意
参赛者可以自由使用公开可用的数据集(例如ICDAR2015,RCTW-17,MSRA-TD500,COCO-Text和MLT)或合成图像作为本次比赛的额外训练数据,而不能公开访问的私有数据则不然。允许使用。
基本真理格式
对于数据集中所有带有完整注释的图像,我们按照命名约定创建一个JSON文件,以结构化格式存储地面真相:
gt_ [image_id],image_id是指数据集中图像的索引。
在JSON文件中,每个gt_ [image_id]都与一个列表相对应,其中列表中的每一行都与图像中的一个单词相对应,并以以下格式给出其边界框坐标,转录和模糊度标志:
{
“ gt_1”:[
{“点”:[[x1,y1],[x2,y2],…,[xn,yn]],“转录”:“ trans1”,“模糊性”:false},
{“点”:[[x1,y1],[x2,y2],…,[xn,yn]],“转录”:“ trans2”,“模糊性”:false}],
“ gt_2”:[
{“点”:[[x1,y1],[x2,y2],…,[xn,yn]],“ transcription”:“ trans3”,“难以辨认”:false}],
……
}
其中“点”中的x1,y1,x2,y2,…,xn,yn是多边形边界框的坐标,可以是4、8、12个多边形顶点。设置为“ true”时,“转录”表示每个文本行的文本,“难以辨认”表示“无关”文本区域,这不会影响结果。
与完全注释基础事实相似,对于数据集中具有弱注释的图像,我们将所有基础事实存储在单个JSON文件中。在JSON文件中,每个gt_ [image_id]都对应一个词,我们在图像中将其称为“感兴趣的文本”:
{
“ gt_0”:[{“ transcription”:“ trans1”}],
“ gt_1”:[{“ transcription”:“ trans2”}],
“ gt_2”:[{“ transcription”:“ trans3”}],
……
}