【论文速读】Pan He_ICCV2017_Single Shot Text Detector With Regional Attention

Pan He_ICCV2017_Single Shot Text Detector With Regional Attention

作者和代码

1058268-20181113220738173-776327896.png

caffe代码

关键词

文字检测、多方向、SSD、$$xywh\theta$$ 、one-stage、开源

方法亮点

  • Attention机制强化文字特征: Text Attentional Module
  • 引入Inception来增强detector对文字大小的鲁棒性:Hierarchical Inception Module(HIM)

方法概述

本文方法是对SSD进行改进,通过增加一个角度信息,用于多方向文字检测。只要通过Attention机制和引入Inception来提高对文字特征的鲁棒性。

方法细节

网络结构

SSD的feature fusion层进行改进。增加了Text Attentional Module, Hierarchical Inception Module,以及AIF进行特征融合。

1058268-20181113220757873-1267162374.png

Aggregated Inception Features (AIFs)

1058268-20181113220819634-1706236819.png

1058268-20181113220831508-1633015540.png

1058268-20181113220843747-1876562524.png

Text Attentional Module

Attention的思想是原来的特征可能是全局整张图的,但是通过强化文字部分的特征(增加监督信息来对text部分的特征进行加权强化),来让文字特征更明显,更利于分类和回归任务。简单说,原来可能要看完整张图来做判断,现在只要多看看文字部分。

从效果来看,attention的好处:噪声的鲁棒性更强,文字的黏连问题解决的更好。

1058268-20181113220904925-602861336.png

Figure 3: Text attention module. It computes a text attention map from Aggregated Inception Features (AIFs). The attention map indicates rough text regions and is further encoded into the AIFs. The attention module is trained by using a pixel-wise binary mask of text.

1058268-20181113220915333-744850065.png

Figure 4: We compare detection results of the baseline model and the model with our text attention module (TAM), which enables the detector with stronger capability for identifying extremely challenging text with a higher word-level accuracy.

Hierarchical Inception Module

Inception有多种不同感受野的特征融合,对文字的大小鲁棒性更强。

1058268-20181113220935493-1268812799.png

Figure 5: Inception module. The convolutional maps are processed through four different convolutional operations, with Dilated convolutions [34] applied.

1058268-20181113220958723-1576312993.png

Figure 6: Comparisons of baseline model and Hierarchical Inception Module (HIM) model. The HIM allows the detector to handle extremely challenging text, and also improves word-level detection accuracy.

其他细节点
  • default box的aspect ratio从1,2,3,5,7 换成1,2,3,5,$\frac{1}{2}$,$\frac{1}{3}$,$\frac{1}{5}$

实验结果

  • ICDAR13数据集上验证TAM(+3)、HIM(+2)、TAM+HIM(+5)的效果

1058268-20181113221015510-1397868307.png

  • ICDAR2013和ICDAR2015

1058268-20181113221023984-229683980.png

  • COCO-text
    1058268-20181113221036126-16717449.png

  • 速度

    • TITAN X, caffe,0.13s/image

总结与收获

这篇文章的方法主要是修改网络模型,通过增加attention和inception来提升特征鲁棒性。这个思想可以用于任何其他目标检测框架的特征融合层。

转载于:https://www.cnblogs.com/lillylin/p/9955145.html

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值