A Comprehensive Study on Cross-View Gait Based Human Identification with Deep CNNs论文中对于LB实验的理解

 最近想重复一下这篇论文的中LB结构的理解。但是论文中对于这个结构的描述有点含糊不清,在此梳理一下。
 在原论文的4.2.1节
论文的截图如下:
uuuu

 对于上一段话的翻译:
在这个网络中,一对GEI对比阶段是在网络的底部区域。在计算一对GEI之前,仅仅用了线性映射。这个阶段的实现是在卷积阶段用16个filters来实现的.一对GEI作为一对filter的输入。这种方法可以看做两个加权比较器。
 我这里的理解是一对filters的每一个filter对应于一张GEI输入,则一对GEI分别被两个filters各自加权。也就是说一对filters的两个权重是不一样的,然后分别作用在两张输入的GEI上。那么对于这两张不同的filter作用出来的一对GEI的权重也是不一样的。然后将这两张经过变相卷积过后的两张GEI图相加。得到一个通道输出。文中说的是16对filters。然后经过变相卷积过后的GEI的数量是16。这样两个GEI作为输入,得到16个变相卷积过后的feature map。
 注意我这里说的是变相卷积。这是我自己起的一个名字。我们都知道,在CNN的卷积过程中,加入一个输入有2个通道。用16个卷积作用到两个通道上。即用一个filter上面的权重过一遍这两个通道。在这个filter作用的过程中,两通道的权重是一样的,那么相当于用两个权值相同的filter作用在两个输入通道上。这个和论文里说的一对filter有两个不同的权重,然后这两个filter分别作用在两个输入通道上,然后对应位置相加。等价模仿实现了加权比较器。这两者是不同的.

下面来解读一下公式4——>图中的 Eq(4)
uuuuuu

  我们来看最里层的两个f相加的那一块儿。其中
ttt
 这就说明 对于两个输入是加的不同的权重ooojjj。奇怪的是对应两个通道分别做卷积也不假。但是它在卷积过后还加了f作为非线性激活函数,在论文中也就是reLU激活函数。但是按照上一段所说的,应该是模拟线性减除后,再加的RelU激活函数。但是这里所说的却是分别加权重后又加了非线性激活函数,然后再相加,如果这样子的话。那么这个模拟的就是线性减除,而是非线性减除了。所以我觉得这两段是前后矛盾的。
 今天的讨论就到这里 了。下次再接着探讨。

以外的发现:
 刚刚浏览器突然全屏。按了F11就可以恢复到有菜单栏的情况了。
 刚刚发现对于两个python命令,可以全都复制,然后黏贴到终端,终端会一个一个的执行,在最后一个命令处停住,中间会显示最后一个命令之前执行的结果。真的好神奇,真的是生命在于探索。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 9
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值