讲的贼特么好!!lecture6主要讲的是一般的NN的一些technique/trick
本讲关于CNN的基本知识讲得很清晰,不过先前自己已经有了一些学习。但是有一些细节讲的很好,比如说:
为什么filter的大小一般是3x3/5x5/7x7这样的奇数大小,原因是可以很公平的“顾及”到specific point周边的点,比如3x3正好就是关键点前后左右各一个,5x5前后左右各两个。
讲到了利用padding(周围补零)的方法,来避免图片perserve the size of image or avoid size shrink too fast
然后就是,即便filter大小是1x1,也不能认为没有意义,并不是简单的乘以一个系数,而是,比如说对于彩图(三通道),那么即便是1x1的filter,相当于在三个通道上做了一个点乘,然后加在一起,因为得到的feature map就是一个通道了,见下图,it makes perfect sense! 要记住,CNN中,filter不只是二维的,而是有“厚度的”,如果上一层是64x64x96(96相当于feature map的个数),那么filter就相应的也是3x3x96或者5x5x96…
feature map 的个数一般是2的指数,比如4/8/16/64/96等等
最后还介绍了AlexNet, ZFNet, VGGNet, GoogLeNet, ResNet
总结,讲到了神经网络的一些trend