关于Visualizing and understanding convolutional networks的一次报告

我就直接上传我做的ppt以及ppt的讲义吧,可能有些混乱,权当参考。如果有问题可以留言讨论。

好像只能有传资源的模式,如果没有积分可以直接私信我邮箱,我发给你。
ppt+讲义下载

关于这次报告陆陆续续也找了不少资料,但是还存在一点疑问:
究竟文字的deconv方法是在重构input(x)还是在求y对x的偏导?

有意思的地方是在cs课程里面,将deconv方法和bp的梯度进行了对比,如图:

这里写图片描述

我们可以看出deconv肯定不是bp的,他们的不同在于,a=f(z) 在进行梯度的时候反向乘以的是f'(z) 而deconv则是对传回来的梯度进行relu。课程中给出的解释是通过正激活,抑制负激活。

这里的正激活就是传回来的数值是正数,负激活是负数。 可是对于正激活和负激活的解释,我还有些疑惑。正导数好像只能说明梯度递增?为什么他能够代表着x激活了y?

而且进一步这里的对比是说明了deconv是对计算偏导的一种改进方法嘛?也就是说deconv也是在算怎样的x最大激活了y?
但是论文中不断地提到了reconstructions一词,而且可视化的结果也很像x中的某一块。

总的来说论文有很多我觉得没有说清楚的地方~也有可能是我没有看明白,但是这篇论文的学习可能就到此为止了。

下面给出一个code链接,是我觉得比较简单的,keras实现的。code参考

希望有大牛可以告知一下我的疑惑,谢谢了~~

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值