目录
问题
1.卷积层:用不同的卷积核对原图进行卷积运算,提取原图特征,生成特征图
池化层:减少数据量,防止过拟合
2.激活函数:引入非线性因素。一般常用的激活函数为ReLU(将小于0的部分归零,大于0的部分保留)
-
笔记
-
CNN的原理
与传统的机器学习算法不同,CNN面对的不再是每个像素点,通过像素点对图像处理,而是整个图像,通过应用卷积的方法对图像进行特征点提取,再通过多层的重复提取,最后对所提取的特征进行分析,从而完成所给目标,实现任务。 CNN分为三个部分,输入层、隐含层、输出层。
能减少网络需要学习的参数量,提高训练速度。
建立模型
soft-max(分类层)输出值变为概率值,倒数一层连接为全连接
- 局部连接
每个神经元不需要对全部的图像做感受,只需要感受局部特征即可
例:一张200*200像素的图片,如果按照1像素对应1个输入层神经元,那么肯定比10*10的像素区域对应的输入层神经元多,相应的隐层神经元个数也会增加
- 权重共享
在同一网络中,神经元权重相同,均为,···
卷积核
- 卷积核的参数需要在训练的过程中学习
- 一个卷积核可以提取图像的一种特征,多个卷积核提取多种特征。(所以多个卷积核*特征图是个立方体)
- 下采样(池化)
缩减特征图面积(原1/2)
取最大值/平均值
损失函数
回归损失:目标识别
分类损失:分类
计算例子:
运行结果
不太准啊结果