【CS231n winter2016 Lecture 7 (Convolutional Neural Network)】

23 篇文章 0 订阅
6 篇文章 0 订阅

讲的贼特么好!!lecture6主要讲的是一般的NN的一些technique/trick

本讲关于CNN的基本知识讲得很清晰,不过先前自己已经有了一些学习。但是有一些细节讲的很好,比如说:

  • 为什么filter的大小一般是3x3/5x5/7x7这样的奇数大小,原因是可以很公平的“顾及”到specific point周边的点,比如3x3正好就是关键点前后左右各一个,5x5前后左右各两个。

  • 讲到了利用padding(周围补零)的方法,来避免图片perserve the size of image or avoid size shrink too fast

  • 然后就是,即便filter大小是1x1,也不能认为没有意义,并不是简单的乘以一个系数,而是,比如说对于彩图(三通道),那么即便是1x1的filter,相当于在三个通道上做了一个点乘,然后加在一起,因为得到的feature map就是一个通道了,见下图,it makes perfect sense! 要记住,CNN中,filter不只是二维的,而是有“厚度的”,如果上一层是64x64x96(96相当于feature map的个数),那么filter就相应的也是3x3x96或者5x5x96…

  • feature map 的个数一般是2的指数,比如4/8/16/64/96等等

最后还介绍了AlexNet, ZFNet, VGGNet, GoogLeNet, ResNet
总结,讲到了神经网络的一些trend

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值