顶刊IJCV 2022!PageNet:面向端到端弱监督篇幅级手写中文文本识别

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>CV微信技术交流群

转载自:CSIG文档图像分析与识别专委会

1ec0346cfc8a6f281d05d6a352bb6f18.png

本文简要介绍2022年8月发表于IJCV的论文“PageNet: Towards End-to-End Weakly Supervised Page-Level Handwritten Chinese Text Recognition”的主要工作。该工作针对篇幅级手写中文文本识别问题,提出了端到端弱监督的方法PageNet。该方法的主要优势在于:(1)从一个新的角度解决篇幅级中文文本识别问题——检测识别单字并预测单字间的阅读顺序。(2)模型可以弱监督地训练。对于真实数据仅需要标注文本,不需要任何边界框标注,极大地降低了数据的标注成本。(3)尽管只需要文本标注信息,模型却可以预测出单字级和文本行级的检测和识别结果。实验证明这种能力可以应用于对数据进行无需人工干预的高精度的自动标注。(4)该方法深入研究篇幅级文本识别中的阅读顺序问题,所提出的阅读顺序模块可以处理多方向文本、弯曲文本等复杂的阅读顺序。(5)实验证明该方法具有较强的泛化能力,适用于扫描、古籍、拍照和多语言等多种文档类型。

一、背景

手写中文文本识别是一个具有广泛应用场景的研究方向。目前该领域的相关研究通常关注文本行级的手写中文识别,不考虑在实际应用中因为文本行检测带来的误差。近年来,也有部分研究关注篇幅级的文本识别,但是它们要么仅考虑简单的版面结构,要么需要极为细致的标注信息(文本行级甚至单字级的边界框)。同时,领域内对于阅读顺序的研究较少,而实际应用中会出现多方向文本、弯曲文本等复杂的阅读顺序。为了解决上述问题,这篇文章中提出一种新型的端到端弱监督篇幅级手写中文文本识别方法PageNet。该方法抛弃文本行检测+文本行识别的传统流程,先检测识别单字再预测单字间的阅读顺序,这使得PageNet可以轻松处理复杂的板式和阅读顺序。对于真实数据,PageNet仅需要文本标注,但是可以输出文本行级和单字级的检测和识别结果,省去了标注文本行级和单字级边界框的巨额成本(表1)。实验证明PageNet优于现有的弱监督和全监督篇幅级文本识别方法。

表1 现有方法需要的标注信息和模型输出结果的对比(L: 文本行级,W: 单词级,C:单字级)。PageNet仅需要文本标注即可得到文本行级和单字级的检测和识别结果。

bb8311bc13a90b6ddaaea4db16d1473d.png

二、方法

2.1 算法框架

ca1542d487b27b9b77b9c2ca5a235cc8.png

图1 PageNet方法整体框架

PageNet方法的整体框架如图1所示,包括四个部分:(1)主干网络提取输入图像的高维特征;(2)检测和识别模块完成单字的检测识别;(3)阅读顺序模块预测单字间的阅读顺序;(4)基于图的解码算法结合单字的检测识别结果和阅读顺序,得到最终的篇幅级结果。该结果包含文本行级和单字级的检测识别结果。

此外,为了省去人工标注单字和文本行边界框的成本,文章中提出了一种新型的弱监督学习方法 (图4)。借助该方法,仅需要对真实数据标注各行的文本信息即可训练PageNet。

2.2 主干网络

主干网络采用多个残差模块堆叠的结构。对于高为H、宽为W的输入图片,主干网络输出形状为3c25bde017bdff2ea74eea181bf04bdb.png512的特征图。为了方便下文叙述,将4c019b021c68ff84dbda35e33331b36f.png分别标记为530bec6fd64d147c855929c59ec9ae8f.png

2.3 检测和识别模块

检测和识别模块参考文献[1]和[2],在主干网络提取的特征的基础上分为三个分支,分别为CharBox、CharDis和CharCls分支。首先将输入图片分为960d117eedbfc579c75fb0e663a7aad8.png个网格并将第i列第j行的网格标记为ed94d484b2c3e15323b3d833fcae5b23.png。CharBox分支输出形状为21457f54dc6264db5b6eb937390e1174.png的单字边界框预测a1b61c58220603caf06d8fe3368a4480.png,其中6ae12161c0eb10233f8939fec0f50668.png可转换为网格0e8a20d3aa57412f24e126ef87fbae0f.png中的单字边界框坐标644dd72c475a6ace1119b04ccc6167c1.png。CharDis分支预测形状为820e4d97b2c21b7f96cf967d05a4a13d.png的字符分布af3bd5adfbb43cae6e0873db42e45109.png,其中174fcac4392519f7a75ff50403bf4351.png为网格298bcd3d594dbdbc88506d28b7ce1030.png中存在单字的置信度。CharCls分支预测形状为beb437349a45f413ad17a947a74d0156.png的字符分类结果4557d88c0afc9b04cf62a2f8b97d0094.png,其中7ac833828a767246c15a236ad9dc5f53.png为网格82b888569fd977b89af7c65c3f908141.png中单字的8332a4bba409649c9d404a8f76f69ef1.png类分类概率。

2.4 阅读顺序模块

884aff1d5331b56bc22c06452d2b6e16.png

图2 阅读顺序模块框图

阅读顺序模块的整体流程如图2所示。该模块将阅读顺序预测问题分解为:(1)文本行开始字符预测;(2)根据字符间的连接关系逐步找到阅读顺序中的下一个字符;(3)行结束字符预测。其中,字符间的连接关系定义为字符间搜索路径上网格的转移方向(上下左右之一)。

对应地,该模块分别预测:(1)行开始分布c7622582b63111df591a2d5d884e6dc2.png,其中70ac380d44593b9d994a9f6109d9e22d.png为网格4b25beffd15c33d196c0f2e81031e79c.png中单字为行开始的置信度;(2)四方向阅读顺序41ddc5c2a1172b8837a00506e9c00db7.png,其中c7ec25eeb5275f3feba2f0bc6ba80369.png为网格d6d78008bc44216dab37d49920522a07.png在阅读顺序中向其四个相邻网格的转移方向;(3)行结束分布c7329cf78b4f2b0883194554485933d4.png为网格dcef02870f1d556c5c00cae4e72da42c.png中单字为行结束的置信度。

2.5 基于图的解码算法

ed22eee88a46326e2d94d9b980fae028.png

图3 基于图的解码算法流程

基于图的解码算法流程如图3所示。该算法结合检测识别模块和阅读顺序模块的输出,得到最终的单字级和文本行级的检测和识别结果。首先,检测识别模块中三个分支的输出203d97af710e7ee4aaf20a66d9292d4e.png经过非极大值抑制(NMS)得到单字的检测和识别结果;然后,每个单字视为图结构中的一个节点。每个节点根据相应单字框中心点的坐标对应一个网格。接下来,基于四方向阅读顺序bacfa2002278247d668fbf3e0565344f.png,可以逐步根据网格的转移方向找到每个节点在阅读顺序中的下一节点。这种连接关系构成图结构的边。下一步,根据行开始分布01b33998e54bacc75fd58f5418d36e09.png和行结束分布71063c197388c01027b5695aa73c44a4.png,判定行开始节点和行结束节点。最后,保留开始于行开始节点并且结束于行结束节点的路径,得到每个文本行的阅读顺序图。将图中的节点替换为对应的单字检测和识别结果,即可得到单字级和文本行级的检测识别结果。

2.6 弱监督学习方法

2657db28ad3dfaadb4aa5665fecad26d.png

图4 弱监督学习方法整体流程图

弱监督学习方法的整体流程图如图4所示。输入数据包括仅有各行文本标注的真实数据和有完整标注的合成数据。为了验证弱监督学习方法的泛化性,合成数据采用将字体文件生成的汉字贴到简单背景上的方法,因此与真实数据存在较大的差异。弱监督学习方法需要将合成数据中学习到的检测识别能力迁移到多种多样的真实场景中。

对于仅有各行文本标注的真实数据,弱监督学习方法借助伪标注,通过匹配、更新和优化三个步骤完成对模型的训练。(1)匹配分为语义匹配和空间匹配两大类。语义匹配通过行匹配和单字匹配得到模型预测正确的单字。空间匹配是为了解决一张图中存在多行相似或相同的文本造成的匹配模糊问题。(2)通过匹配可以得到识别正确的单字。文章中认为这些单字的边界框是相对准确的。更新过程中使用这些边界框通过复制或加权和的方式更新伪标注。(3)使用更新后的伪标注计算损失优化模型。因为伪标注一般不完全包含所有单字的边界框,模型损失的计算需要进行特殊的设计。特别是对于检测识别模块的CharDis分支,根据伪标注仅知某些网格中存在单字,无法完全判定不存在单字的网格(即负样本)。因此,文章中借助在单字匹配中连续匹配结果为相同的字符。这些字符间根据阅读顺序模块得到的搜索路径中的网格可以以较高置信度判定为不存在单字,如此一来即可优化CharDis分支。其余分支和模块的损失计算方法可参考原文。

三、 实验

3.1 实验数据集

(1)CASIA-HWDB手写中文数据集,包括篇幅级数据集CASIA-HWDB2.0-2.2(5091张图片)和单字数据集CASIA-HWDB1.0-1.2(389万个单字)。

(2)ICDAR2013手写中文比赛测试集,包括篇幅级数据集ICDAR13(300张图片)和单字数据集ICDAR13-SC(22万个单字)。

(3)MTHv2中文古籍数据集,包括3199张古籍图片,分为2399张训练集和800张测试集。

(4)SCUT-HCCDoc拍照手写数据集,包括12253张图片,分为9801张训练集和2452张测试集。

(5)JS-SCUT PrintCC中英文印刷文档数据集,包括398张图片,分为348张训练集和50张测试集。

(6)合成数据集采用真实单字数据或字体生成的单字数据和网络获取的简单纸张背景进行合成。首先将单字组成文本行,再将文本行以一定倾斜度贴在背景上。数据合成不涉及任何语料和其他复杂的光照、视角和扭曲变换等处理。合成数据的示例如图5所示。

50663558c3d5cce0a741b8dd57759dde.png

图5 合成数据示例

3.2 模型结构

模型结构如图6所示。

3975e8caf04178d9aae3446eeedb7354.png图6 模型具体结构图

3.3 评测指标

针对仅标注各行文本内容的弱监督情况,提出了AR*和CR*指标。这两种指标首先将模型预测文本行和标注文本行根据AR进行匹配。对已经匹配的文本行对,计算插入错误、删除错误和替换错误并累积。对于没有被匹配的预测文本行,其中所有单字均视为插入错误。对于没有被匹配的标注文本行,其中所有单字均视为删除错误。最后,采用类似于AR和CR的计算方式,得到AR*和CR*指标。

3.4 ICDAR13数据集

PageNet在ICDAR13篇幅级手写中文数据集上的端到端识别指标和文本行检测指标及其与现有方法的对比如下表所示。可以看出,PageNet超过了现有的全监督和弱监督方法,取得SoTA的端到端篇幅级识别指标。

表2 PageNet与现有方法在ICDAR13数据集上的对比

b1cd7ded4a2f282bbe88621b1f0406fb.png

3.5 MTHv2、SCUT-HCCDoc和JS-SCUT PrintCC数据集

PageNet与现有方法在MTHv2、SCUT-HCCDoc和JS-SCUT PrintCC数据集上的端到端识别指标对比如下表所示。可以看出,在MTHv2数据集上,PageNet取得了与最佳的全监督模型相近的端到端识别指标。在SCUT-HCCDoc数据集上,因为该数据集涉及复杂的版面和光照、拍照角度等干扰,这对无真实场景文本位置信息监督的PageNet提出了很大挑战。但是借助合理设计的弱监督学习方法,PageNet大幅度超过了其他弱监督方法且与最佳的全监督模型指标较为接近。在JS-SCUT PrintCC数据集上,PageNet取得了最高的端到端识别指标,证明该方法可以处理中英文混合的文档场景。

表3 PageNet与现有方法在MTHv2、SCUT-HCCDoc和JS-SCUT PrintCC数据集上的对比

77a07f6adb0839f42c295013e2c4904e.png

3.6 ICDAR13文本行级数据

PageNet与现有方法在ICDAR13文本行数据集(根据标注切出文本行)上的识别指标对比如下表所示。可以看出,虽然PageNet是在篇幅级进行识别且AR*和CR*需要考虑到文本行检测的准确度,但是PageNet的指标仍然超过了现有的文本行级识别方法。这一结果证明了基于单字检测和识别的方法相较于流行的基于CTC/Attention方法更加适合于中文文本识别。

表4 PageNet与现有方法在ICDAR13文本行数据集上的对比

46be3f37a469b2c652277ee7d657162b.png

3.7 单字检测识别指标

PageNet与经典检测方法Faster R-CNN和YOLOv3在ICDAR13数据集上的单字检测识别指标如下表所示。可以看到弱监督的PageNet在同时考虑单字检测和识别时(7356C)取得了远超全监督的Faster R-CNN & YOLOv3的指标。

表5 PageNet与Faster R-CNN和YOLOv3在ICDAR13数据集上的单字检测识别指标对比

dd8077ed72eadbe2e93c041795e0756d.png

3.8 实验结果可视化

部分可视化结果如下图所示,图中左侧为单字检测识别结果,右侧为阅读顺序预测结果。更多可视化结果请参见原文。

95f5831459f6626b113d0935e4eea791.png

fd714f3718563e8c8cb2a1da46778516.png

d0ecb87040d87cbbc3aec73d4faefa1e.png

图6 可视化结果

3.9 其他实验

文章进一步用实验证明了PageNet方法在多方向文本、任意弯曲文本上的有效性。同时,弱监督学习得到的伪标注可以无需人工干预直接用作数据标注,训练出与原始人工标注指标相近的模型。此外,实验证明了PageNet对合成数据与真实场景的相似程度不敏感,保证了PageNet的泛化性。具体实验结果请参见原文。

四、 总结及讨论

该文章中提出一种新型的端到端弱监督篇幅级手写中文文本识别方法PageNet。PageNet从一个全新的角度解决篇幅级文本识别任务,即检测识别单字和预测单字间的阅读顺序。文章提出的弱监督学习方法使得仅需要人工标注各行的文本信息,无需标注文本位置信息,即可训练PageNet得到单字级和文本行级的检测识别结果。在多个不同场景的文档数据集上的实验结果证明了PageNet可以取得超过全监督方法的端到端识别指标。同时,PageNet的篇幅级识别指标也可以超过现有的不考虑文本检测的文本行级识别方法。此外,实验也证明了PageNet可以很好地处理多方向文本和弯曲文本。弱监督学习生成的伪标注可以无需人工干预直接用作标注,训练出与人工标注指标相近的模型。相较于其他方法,PageNet对合成数据与真实场景的相似程度不敏感,可以更好地泛化至多种多样的场景。该文章希望为端到端弱监督篇幅级文本识别领域提供一种新的思路。

五、 相关资源

  • 论文地址1:https://arxiv.org/abs/2207.14807

  • 论文地址2:https://link.springer.com/article/10.1007/s11263-022-01654-0

  • 代码地址:https://github.com/shannanyinxiang/PageNet

参考文献

[1] Dezhi Peng, et al. “A fast and accurate fully convolutional network for end-to-end handwritten Chinese text segmentation and recognition.” Proceedings of International Conference on Document Analysis and Recognition. 2019.

[2] Dezhi Peng, et al. “Recognition of handwritten Chinese text by segmentation: A segment-annotation-free approach.” IEEE Transactions on Multimedia. 2022.

[3] Dezhi Peng, et al. “PageNet: Towards end-to-end weakly supervised page-level handwritten Chinese text recognition” International Journal of Computer Vision. 2022.


原文作者: Dezhi Peng, Lianwen Jin, Yuliang Liu, Canjie Luo, Songxuan Lai

撰稿:彭德智  编排:高 学

审校:殷 飞 发布:金连文 

 
 

点击进入—>CV微信技术交流群

CVPR/ECCV 2022论文和代码下载

 
 

后台回复:CVPR2022,即可下载CVPR 2022论文和代码开源的论文合集

后台回复:ECCV2022,即可下载ECCV 2022论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF

目标检测和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer222,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer222,进交流群
CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!

▲扫码进群
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值