【ECCV2024】边缘感知Transformer的场景文本分割

b90bbc33ace5a227dc0dfdc30d6d5c66.png

来源:专知
本文约1000字,建议阅读5分钟
本文提出了边缘感知Transformer(EAFormer),以更精确地分割文本,特别是文本边缘。

3454e58ad9226781d2dd9e6d85235ef1.png

场景文本分割旨在从场景图像中裁剪文本,通常用于帮助生成模型编辑或删除文本。现有的文本分割方法往往涉及各种与文本相关的监督以提高性能。然而,大多数方法忽略了文本边缘的重要性,而文本边缘对下游应用具有重要意义。本文提出了边缘感知Transformer(EAFormer),以更精确地分割文本,特别是文本边缘。

方法

文本边缘提取器

首先,我们设计了一个文本边缘提取器,用于检测边缘并过滤掉非文本区域的边缘。这个提取器能够有效地识别出文本的边界,从而为后续的分割任务提供有价值的信息。

边缘引导编码器

然后,我们提出了一个边缘引导编码器,使模型能够更多地关注文本边缘。通过引入边缘信息,编码器能够更准确地捕捉文本区域,从而提高分割的精度。

基于MLP的解码器

最后,我们使用了一个基于多层感知器(MLP)的解码器来预测文本掩码。该解码器能够将编码后的信息转换为精确的文本区域掩码,从而实现文本的精确分割。

实验

我们在常用的基准数据集上进行了广泛的实验,以验证EAFormer的有效性。实验结果表明,所提出的方法在文本边缘分割方面比现有方法表现更好。考虑到几个基准数据集(如COCO_TS和MLT_S)的注释不够准确,无法公平评估我们的方法,我们重新标注了这些数据集。通过实验,我们观察到,当使用更准确的注释进行训练时,我们的方法可以实现更高的性能提升。

代码和数据集可以在以下网址获取:https://hyangyu.github.io/EAFormer/

结论

本文提出了一种新的场景文本分割方法——EAFormer,通过引入边缘感知机制,提高了文本特别是边缘的分割精度。实验结果验证了我们方法的有效性,特别是在重新标注的更准确的数据集上表现更加突出。未来的工作将致力于进一步优化模型结构,并扩展到更多的实际应用场景。

726c28842b74b60ac3298eba5db52ca1.png

关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。

bb1bd5f979d3c90d8374a04236258341.png

新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值