卷积的可视化学习

w ^
我个人对卷积的理解:
卷积是一种对一个目标的一组参数中我们已经得知其中部分我们需要的参数特征,进而需要得到这组参数全部特征的计算方法,来源:泛函分析褶积。
卷积这个概念最早用在图像信号处理上,所以会出现大量改造的卷积神经网络在计算机视觉上应用,这种计算方式是一种矩阵运算,为了便于理解定义为输入的信号X [米, n],激活响应(核)h(m,n)y [m,n] = x [x,y] * h [m,n] = \ sum _ {j = - \ infty} ^ {\ infty} \ sum _ {i = \ infty} ^ {\ infty} x [i,j] \ cdot h [mi,nj]]不过在图像处理中这里的激活响应(也称为核)h [m,n]通常是一个3乘3矩阵,下其标如下图产品所示其余下标的值取0,注意到原点(0,0)是是矩阵的中心。在图像处理中,输入信号X [M,N]的非零值通常是横坐标从0到M-1,纵坐标从0到N-1,这里中号和ñ分别是图像宽和高的值,其余的值设置为0。卷积有很多卷积,比如有效卷积和满卷积。下面这个博文对可视化的卷积做的演示便于理解https://www.zybuluo.com/hanbingtao/note/485480 评价Google最新的论文NASNet https:// l墨 水.zhihu著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

从ICLR2017的时候说起,google brain当时出了一个工作,提出了神经网络的设计可以用神经网络来学习(设计网络来学习如何设计网络~~),就是本文中引用的NAS(神经网络搜索强化学习)。其实当时MIT也有类似的工作,但是效果没鼻好,我觉得主要是GPU没他们多(有钱真的可以为所欲为(·_·。:))。纳基于强化学习,方法也很暴力,搜索空间也很大,在CNN和RNN上都做了探索,使用了800块的GPU,当然只在cifair10上做的啦,而且没有超过densenet的性能。由于网络结构的搜索空间大,所以设计的网络连接也有些反人类,特别是RNN,手机上码字,不好贴图,有兴趣可以看看NAS的纸感受下。直接使用NAS的框架来跑imagenet显然是不行的!于是就有了这篇工作了。个人觉得这篇工作可以看做是在NAS的基础上加上几个改进,使得可以在cifar10上设计的网络能够在imagenet有 一个改进其实是一个经验:.CNN可以由同构模块进行堆叠而构成这样设计一个大型CNN网络就直接简化为设计一个块就行了,也就可以用NAS解决了第二个改进:合理选择搜索空间中的操作,使得块运行时对输入尺寸没有要求(例如卷积,汇集等操作)这样图像由CIFAR的32到imagenet的大尺寸图片就不会有问题了第三个改进还是经验:块的连接,块内部的一些拓扑结构根据经验可以固定,不用去学。基于以上几条,NAS那一套就可以直接用啦这篇工作里面的网络也看起来人性化一些,一个原因就是经验性的东西加入了很多这个问题说明了硬件是计算成本的计算才能实现空间和时间复杂度的相关计算为了研究NasNet才读此类博客.http:.// blog.csdn.net / hduxiejun / article /详情/ 70815620 https://www.zhihu.com/question/39022858

HTTP://baoshuo.blog.163.com/blog/static/21955105120134105820181/ http://blog.csdn.net/junmuzi/article/details/53071606 https://www.cnblogs.com/libinggen/p/6901770 .html http://blog.csdn.net/qq_31531635/article/details/71104334

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值