[论文笔记] Non-local Neural Networks

[论文笔记] Non-local Neural Networks

论文链接

第一遍初读

回答三个基本问题

  1. 这篇论文主要表达的是什么?作者写这篇论文的目的是什么?或者说这篇论文做出了什么成果?

    ​ 成果:we present non-local operations as a generic family of building blocks for capturing long-range dependencies(我感到这个英文表达意思比较精准,就没有自己翻译)

  2. 这篇论文是如何论证的?作者使用了哪些论据来支持观点或者成果。

    ​ 首先,作者先举出Convolutional and recurrent operations 的缺点-低效性,优化难还有迭代建立模型带来的信息来回传输难。

    ​ 其次,表示,non-local operations 可以解决上面的部分缺点 ,而且表明了这种操作的优点- 直接计算 long-range dependecies, 仅需要一些layer就可以得到最优解还有 输出和输入大小相同。

    ​ 最后,作者展示了这种操作在音频分类中的高效性。此外,由于这是种 a generi family family of building blocks ,故在其他领域如静态图片识别,物体检测,分割和姿势估计上取得了很好的效果。

  3. 相关的工作有哪些?在这篇论文之前有什么已经成立或者获得的成果?作者的观点/成果主要是建立在哪个的基础上?作者的观点/成果和别人的突出在哪里?

    建立的基础

    1. Non-local image processing

    2. Graphical models

      不同点: In contrast, our method is a simpler feedforward block for computing non-local filtering.
      Unlike these methods that were developed for segmentation, our general-purpose component is applied for classification and detection.

    3. Feedforward modeling for sequences

    4. Self-attention

      不同点: this sense our work bridges self-attention for machine translation to the more general class of non-local filtering operations that are applicable to image and video problems in computer vision.

    5. Interaction network

    6. Video classification architectures

    优点,上面第二问提到了,就不多叙述了。

第二篇精读点

Related Work

  1. Non-local image processing

    Non-local means [4] is a classical filtering algorithm that computes a weighted mean of
    all pixels in an image

  2. Graphical models

    Long-range dependencies can be modeled by graphical models such as conditional random fields
    (CRF) .In contrast, our method is a simpler feedforward block for computing non-local filtering.Unlike these methods that were developed for segmentation,our general-purpose component is applied for classification and detection.

  3. Feedforward modeling for sequences

    These feedforward models areamenable to parallelized implementations and can be more efficient than widely used recurrent models

  4. Self-attention

    Our work is related to the recent selfattention [49] method for machine translation.

    in this sense our work bridges self-attention for machine translation to the more general class of non-local filtering operations that are applicable to image and video problems in computer vision

  5. Interaction networks

    Interaction Networks (IN) [2, 52] were proposed recently for modeling physical systems

  6. Video classification architectures

f(),g()的思考和Non-local Block解析

在这里插入图片描述
上面的公式中,输入是x,输出是y,i和j分别代表输入的某个空间位置,x_i是一个向量,维数跟x的channel数一样,f是一个计算任意两点相似关系的函数,g是一个映射函数,将一个点映射成一个向量,可以看成是计算一个点的特征。也就是说,为了计算输出层的一个点,需要将输入的每个点都考虑一遍

其中有趣的是,作者通过实验表明,非局部模型对这些f()和g()函数的选择并不敏感,这表明一般的非局部行为是观察到的改进的主要原因。

​ 下面来介绍下文中提到的f()和g()

​ 为了简化问题,作者简单地设置g函数为一个1*1的卷积。相似性度量函数f的选择有多种:

  • Gaussian: 在这里插入图片描述
  • Embedded Gaussian: 在这里插入图片描述
  • Dot Product: 在这里插入图片描述
  • Concatenation: 在这里插入图片描述

其中后俩种Dot ProductConcatenation 是为了说明the attentional behavior (due to softmax) is not essential in the applications we study. **
在这里插入图片描述
然后作者对Eq(1)进行封装到一个可以合并到许多现有架构中的
non-local block**,公式如上。

下面接用一个图来解释non - local block 该图来源自博客

在这里插入图片描述

然后介绍了一些可以减少计算量的窍门

思考

local含义

​ Local这个词主要是针对感受野(receptive field)来说的。以卷积操作为例,它的感受野大小就是卷积核大 小,而我们一般都选用3 x 3,5 x 5之类的卷积核,它们只考虑局部区域,因此都是local的运算。同理,池化(Pooling)也是。相反的,non-local指的就是感受野可以很大,而不是一个局部领域。

为什么需要论文中所提到的non-local操作

​ 首先解释为什么?我们知道Convolutional and recurrent operations 是通过不断迭代使用来增大自己的感受野。这个不断迭代的过程十分低效,不利于最后最优解的求取而且有时候并不能带给我们足够的信息。

​ 通过上面Local意思的解释,你肯定会想到我们深度学习中常用的全连接操作。这也是个non-local操作,而且还是global。但是,全连接带来了太多的参数,给优化带来了很大困难。

​ 而且本文中提到的non-local操作与fc(a fully-connected layer)有区别。

  1. 本文中所提到的计算俩点关联度的函数是基于不同位置的。而fc是需要通过学习而获得。
  2. non-local operation 可以应对不同大小的输入而且可以保证输出和输入大小一致。
  3. non-local operation 与具体深度网络的实现的耦合度不高,可以加入到较早部分的网络中。

综上,non-local block利用两个点的相似性对每个位置的特征做加权,而全连接层则是利用position-related的weight对每个位置做加权。于是,全连接层可以看成non-local block的一个特例

  • 任意两点的相似性仅跟两点的位置有关,而与两点的具体坐标无关,即 在这里插入图片描述
  • g是identity函数,
    在这里插入图片描述
  • 归一化系数为1。归一化系数跟输入无关,全连接层不能处理任意尺寸的输入。

文中提到到与self-attention model的联系

​ Embedding的1*1卷积操作可以看成矩阵乘法:在这里插入图片描述

于是,在这里插入图片描述
可以看作为 self-attention 的一种表现形式

其中self-attention model

简略介绍

​ Attention机制的本质来自于人类视觉注意力机制。人们视觉在感知东西的时候一般不会是一个场景从到头看到尾每次全部都看,而往往是根据需求观察注意特定的一部分。而且当人们发现一个场景经常在某部分出现自己想观察的东西时,人们会进行学习在将来再出现类似场景时把注意力放到该部分上。

查找资料点

  1. BM3D (block-matching 3D)

  2. conditional random fields(CRF)

  3. feedforward (i.e., non-recurrent) networks

  4. self-attention

  5. Interaction Networks

  6. softmax

  7. tensor

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值