华科白翔教授团队ECCV2018 OCR论文:Mask TextSpotter

本文经授权转自我爱计算机视觉52CV。

华中科技大学白翔老师团队在自然场景文本检测与识别领域成果颇丰,这篇被ECCV2018接收的论文《Mask TextSpotter: An End-to-End Trainable Neural Network for Spotting Text with Arbitrary Shapes》是其最新力作。

640?wx_fmt=jpeg

文章指出,最近,基于深度神经网络的模型已经主导了场景文本检测和识别领域。在该文中,研究了场景“text spotting”的问题,其旨在自然图像中同时进行文本检测和识别。

该文受到Mask R-CNN的启发提出了一种用于场景text spotting的可端到端训练的神经网络模型:Mask TextSpotter。与以前使用端到端可训练深度神经网络完成text spotting的方法不同,Mask TextSpotter利用简单且平滑的端到端学习过程,通过语义分割获得精确的文本检测和识别。此外,它在处理不规则形状的文本实例(例如,弯曲文本)方面优于之前的方法。

在 ICDAR2013、ICDAR2015和Total-Text数据库上的实验表明,所提出的方法在场景文本检测和端到端文本识别任务中都达到了state-of-the-art的水平。

弯曲形状文本检测与识别的例子:

640?wx_fmt=jpeg

左图是水平text spotting方法的结果,它的检测框是水平的;中间图是具有方向的text spotting方法的结果,它的检测框倾斜;右图是该文提出的Mask TextSpotter算法的结果,它的检测框不是外接矩形而是一个最小外接多边形,对这种弯曲文本达到了更精确的文本检测和识别。

网络架构

640?wx_fmt=jpeg

网络架构由四部分组成,骨干网feature pyramid network (FPN)  ,文本候选区域生成网络region proposal network (RPN) ,文本包围盒回归网络Fast R-CNN ,文本实例分割与字符分割网络mask branch。

训练阶段

RPN首先生成大量的文本候选区域,然后这些候选区域的RoI特征被送入Fast R-CNN branch和mask branch,由它们去分别生成精确的文本候选包围盒(text candidate boxes)、文本实例分割图(text instance segmentation maps)、字符分割图(character segmentation maps)。

尤其值得一提的是Mask Branch,如下图:

640?wx_fmt=jpeg

它将输入的RoI(固定大小16*64)经过4层卷积层和1层反卷积层,生成38通道的图(大小32*128),包括一个全局文本实例图——它给出了文本区域的精确定位,无论文本排列的形状如何它都能分割出来,还包括36个字符图(对应于字符0~9,A~Z),一个字符背景图(排除字符后的的所有背景区域),在后处理阶段字符背景图会被用到。

这是一个多任务模型,其Loss 组成:

640?wx_fmt=jpeg

推理阶段

推理阶段mask branch的输入RoIs来自于Fast R-CNN的输出。

推理的过程如下:首先输入一幅测试图像,通过Fast R-CNN获取候选文本区域,然后通过NMS(非极大抑制)过滤掉冗余的候选区域,剩下的候选区域resize后送入mask branch,得到全局文本实例图,和字符图。通过计算全局文本实例图的轮廓可以直接得到包围文本的多边形,通过在字符图上使用提出的pixel voting方法生成字符序列。

640?wx_fmt=jpeg

如上图所示,Pixel voting 方法根据字符背景图中每一个联通区域,计算每一字符层相应区域的平均字符概率,即得到了识别的结果。

为了在识别出来的字符序列中找到最佳匹配单词,作者在编辑距离(Edit Distance)基础上发明了加权编辑距离(Weighted Edit Distance)。

640?wx_fmt=jpeg

识别结果示例:

640?wx_fmt=jpeg

ICDAR2013的结果

该库主要用来验证在水平文本上的识别效果。

640?wx_fmt=jpeg

ICDAR2015的结果

用来验证方向变化的文本的结果。

640?wx_fmt=jpeg

Total-Text结果

验证弯曲的文本检测识别结果。

640?wx_fmt=jpeg

弯曲文本识别示例

640?wx_fmt=jpeg

速度

在Titan Xp 显卡上,720*1280的图像,速度可以达到6.9FPS。

效果分析

作者通过进一步的实验分析,发现:如果去除字符图子网络,只训练检测模型,检测的性能会下降,说明检测可以受益于识别模块。下图中Ours(det only)为只有检测的模型。

640?wx_fmt=jpeg

如果去除训练样本中的真实世界字符标注图像,模型依然可以达到相当竞争力的性能。下图中Ours(a)即不使用真实世界字符标注图像的训练结果。

通过加权编辑距离(weighted edit distance)和原始编辑距离的比较,发现,加权编辑距离可以明显提高识别性能。下图中Ours(b)为原始编辑距离的结果。

640?wx_fmt=jpeg

该文将Mask R-CNN语义分割的方法用于文本检测与识别,取得了显著的性能改进,并能成功应对任意形状的文本,其他语义分割方法是否也能拿来试一下呢?

该文目前还没有开源代码。

论文地址:

https://arxiv.org/abs/1807.02242

白翔老师主页:

http://cloud.eic.hust.edu.cn:8071/~xbai/

--end--

作者简介:

640?wx_fmt=jpeg

白翔,华中科技大学电子信息与通信学院教授,博导,国家防伪工程中心副主任。先后于华中科技大学获得学士、硕士、博士学位。他的主要研究领域为计算机视觉与模式识别、深度学习。尤其在形状的匹配与检索、相似性度量与融合、场景OCR取得了一系列重要研究成果,入选2014-17年Elsevier中国高被引学者。他的研究工作曾获微软学者,国家自然科学基金优秀青年基金的资助。他担任VALSE指导委员,IEEE信号处理协会(SPS)武汉Chapter主席;曾担任VALSE在线委员会(VOOC)主席, VALSE 2016大会主席。

往期精彩回顾

【CVPR2018】物体检测中的结构推理网络

地平线杨铭:从无形视觉到有形芯片

还不知道GAN?小心落伍于这个时代!

高新波:异质图像合成与识别

互联网图像中的像素级语义识别

深度学习高效计算与处理器设计

【领域报告】2017以来的2D to 3D | VALSE2018

【领域报告】小样本学习年度进展|VALSE2018

TensorFlow: 薛定谔的管道

【领域报告】主动学习年度进展|VALSE2018

可微编程:打开深度学习的黑盒子

欢迎关注我们!

深度学习大讲堂是由中科视拓运营的高质量原创内容平台,邀请学术界、工业界一线专家撰稿,致力于推送人工智能与深度学习最新技术、产品和活动信息!

中科视拓(SeetaTech)将秉持“开源开放共发展”的合作思路,为企业客户提供人脸识别、计算机视觉与机器学习领域“企业研究院式”的技术、人才和知识服务,帮助企业在人工智能时代获得可自主迭代和自我学习的人工智能研发和创新能力。

中科视拓目前正在招聘: 人脸识别算法研究员,深度学习算法工程师,GPU研发工程师, C++研发工程师,Python研发工程师,嵌入式视觉研发工程师,运营经理。有兴趣可以发邮件至:hr@seetatech.com,想了解更多可以访问,www.seetatech.com

640?wx_fmt=jpeg

640?wx_fmt=jpeg

中科视拓

640?wx_fmt=jpeg

深度学习大讲堂

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
手写数学公式识别中的Transformer是一种用于处理手写数学表达式的神经网络模型。该模型通过关注全局上下文信息和局部细节来识别手写数学公式中的符号和结构。Transformer模型在手写数学公式识别中的应用有两篇相关论文。 第一篇论文是"Handwritten Mathematical Expression Recognition with Bidirectionally Trained Transformer",该论文详细介绍了使用双向训练Transformer进行手写数学表达式识别的方法。论文提出了一种基于Transformer的多层注意力机制,可以捕捉到数学公式中符号之间的复杂关系,并实现了出色的识别性能。 第二篇论文是"Multi-scale Attention with Dense Encoder for Handwritten Mathematical Expression Recognition",该论文提出了一种基于多尺度注意力和密集编码器的方法,用于提高手写数学公式识别的准确性和鲁棒性。该方法通过引入多个注意力机制和密集编码器,可以有效地捕捉到数学公式中的局部和全局信息,从而实现更准确的识别结果。 这些论文的研究工作对于解决手写数学公式识别中的注意力不准确和复杂结构等问题具有重要意义。相关论文的代码已经开源,可以在相关论文的地址中找到。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [手写数学公式识别: 基于注意力聚合和双向交互学习的算法ABM(AAAI 2022 Oral)](https://blog.csdn.net/moxibingdao/article/details/124464298)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [ECCV 2022 | 白翔团队提出CAN:手写数学公式识别新算法](https://blog.csdn.net/amusi1994/article/details/126188495)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值