cnn(卷积神经网络)笔记

目录


   建立模型

   损失函数

问题

1.卷积层:用不同的卷积核对原图进行卷积运算,提取原图特征,生成特征图

   池化层:减少数据量,防止过拟合

2.激活函数:引入非线性因素。一般常用的激活函数为ReLU(将小于0的部分归零,大于0的部分保留)


  • 笔记

  •  CNN的原理

       与传统的机器学习算法不同,CNN面对的不再是每个像素点,通过像素点对图像处理,而是整个图像,通过应用卷积的方法对图像进行特征点提取,再通过多层的重复提取,最后对所提取的特征进行分析,从而完成所给目标,实现任务。 CNN分为三个部分,输入层、隐含层、输出层。

       能减少网络需要学习的参数量,提高训练速度。


 建立模型

 soft-max(分类层)输出值变为概率值,倒数一层连接为全连接


  • 局部连接

 每个神经元不需要对全部的图像做感受,只需要感受局部特征即可

例:一张200*200像素的图片,如果按照1像素对应1个输入层神经元,那么肯定比10*10的像素区域对应的输入层神经元多,相应的隐层神经元个数也会增加


  • 权重共享 

        在同一网络中,神经元权重相同,均为{w}_{1},···{w}_{n}


 卷积核

  •   卷积核的参数需要在训练的过程中学习
  • 一个卷积核可以提取图像的一种特征,多个卷积核提取多种特征。(所以多个卷积核*特征图是个立方体)


  • 下采样(池化)

        缩减特征图面积(原1/2)

        取最大值/平均值


损失函数

 回归损失:目标识别

 分类损失:分类


计算例子:

 


 运行结果

 不太准啊结果

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值