毕设内容语义分割,需要CNN的基础,边学习边记录更新,不面向其他读者
参考链接1:
https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/5-03-A-CNN/
帮助建立形象理解,CNN是用来进行分类的
http://blog.csdn.net/stdcoutzyx/article/details/41596663
提到:
卷积神经网络有两种神器可以降低参数数目,第一种神器叫做局部感知野,第二种是即权值共享,即使用相同的卷积核进行卷积。
卷积也就是说神经网络不再是对每个像素的输入信息做处理了,而是图片上每一小块像素区域进行处理, 这种做法加强了图片信息的连续性. 使得神经网络能看到图形, 而非一个点
具体来说, 卷积神经网络有一个批量过滤器, 持续不断的在图片上滚动收集图片里的信息,每一次收集的时候都只是收集一小块像素区域, 然后把收集来的信息进行整理, 这时候整理出来的信息有了一些实际上的呈现, 比如这时的神经网络能看到一些边缘的图片信息, 然后在以同样的步骤, 用类似的批量过滤器扫过产生的这些边缘信息, 神经网络从这些边缘信息里面总结出更高层的信息结构,比如说总结的边缘能够画出眼睛,鼻子等等. 再经过一次过滤, 脸部的信息也从这些眼睛鼻子的信息中被总结出来. 最后我们再把这些信息套入几层普通的全连接神经层进行分类(全连接层后面一般接一个softmax分类器), 这样就能得到输入的图片能被分为哪一类的结果了.
(个人理解:CNN就是一层一层逐步扩大一次性的理解范围,最终达到一个神经元理解整幅图像的效果
补:
全连接层可以将原来二维的矩阵(图片)压缩成一维的,(丢失了空间信息,)最后训练输出一个标量,就是我们的分类标签
池化:
我们要确定池化区域的大小(假定为),来池化我们的卷积特征。那么,我们把卷积特征划分到数个大小为
的不相交区域上,然后用这些区域的平均(或最大)特征来获取池化后的卷积特征
(http://ufldl.stanford.edu/wiki/index.php/%E6%B1%A0%E5%8C%96
池化层又称为亚采样层,通过亚采样可以维持旋转等不变性
http://www.gageet.com/2014/09182.php#more-182
还有一篇公式代码比较多的待看:
https://www.zybuluo.com/hanbingtao/note/485480
FCN:
https://zhuanlan.zhihu.com/p/22976342
原理简略讲的 有源码分析未看
http://blog.csdn.net/guoyuhaoaaa/article/details/54093913
有自己的总结:
其实深度残差网络和Highway网络这两种网络结构都能够让一部分的数据可以跳过某些变换层,而直接到后面的层中去,只不过Highway网络需要一个权值来控制每次直接通过的数据量,而深度残差网络就直接让一部分数据通到了后面。