这是一篇2020年发表在ECCV上有关场景文字超分辨的文章。
三点贡献:
1.提出了Text Zoom数据集
2.说明了场景文本图像超分辨的重要性
3.提出了一种文本超分辨网络
paper:https://arxiv.org/pdf/2005.03341.pdf
code:GitHub - JasonBoy1/TextZoom: A super-resolution dataset of paired LR-HR scene text images
一、Text Zoom 数据集
由于之前的方法都是用合成的方式(如用滤波器、插值等方法模糊HR图像),但是现实中的场景文本图像的比人工合成的低分辨图像更具有挑战性。因为,现实中的低分辨图像有更多的干扰因素,所以本文提出本数据集,旨在训练出性能更好的网络模型。
二.TSRN
该方法模型图如下:
损失函数:
实验结果:
后面作者还做了一系列实验来验证本方法的优越性,就不一一列出了。
但是这篇文章是2020年的,CVPR2021收录了一篇比较新的场景文本超分辨文章Scene Text Telescope,有兴趣可以看看那一篇。