神经网络与深度学习-学习笔记(2)——卷积神经网络基础

目录

深度学习的价值和意义

全连接网络问题

深度学习平台简介

卷积神经网络基础

进化史

基本概念

特征提取

填充

步长

多通道卷积

池化

 卷积神经网络结构

BP算法基础

前向传播

反向传播

网络结构

LeNet-5

AlexNet


深度学习的价值和意义

全连接网络问题

        全连接网络链接权过多,算的慢,难收敛,同时可能进入局部极小值,也容易产生过拟合问题。

        例如:输入为1000\times1000图像,隐含层有1M个节点,则输入至隐含层间有1\times10^{12}数量级参数。
  • 解决算的慢问题:减少权值连接,每一个节点只连到上一层的少数神经元,即局部连接络。

  • 解决浅层全连接网络拟合效果不好、权值过多的问题: 信息分层处理,每一层在上层提取特征的基 础上获取进行再处理,得到更高级别的特征。

深度学习平台简介

卷积神经网络基础

进化史

基本概念

特征提取

        对于所有的下一层节点,卷积核都是一样的,也就是权值相同。

填充

        填充(Padding ): 也就是在矩阵的边界上填充一些值,以增加矩阵的大小,通常用0 或者复制边界像素来进行填充。

步长

        步长(Stride): 如图步长为2

多通道卷积

        输入张量是三维的,卷积核也是三维的,对应位置数进行卷积,得到二维的输出张量。

池化

        在输入张量某个区域内,使用局部统计特征,如均值或最大值作为输出。解决特征过多问题。

 卷积神经网络结构

        构成 :由多个卷积层和下采样层构成,后面可连接全连接网络
        卷积层: 𝑘 个滤波器
        下采样层 :采用mean或max
        后面 :连着全连接网络

BP算法基础

前向传播

        前向传播定义为:
此处忽视卷积核的上下左右转置,因为不影响最终结果。
        如果第𝑙 层是卷积+池化层,则:

反向传播

        如果当前是下采样层,下一层为卷积层,误差如何从卷积回传?
        假设为2*2 核卷积

        卷积NN的BP算法:卷积层+卷积层

因此有,

        卷积NN的BP算法:卷积层+全连接层

网络结构

LeNet-5

        C3层卷积时用到了三维卷积,但是第三个维数是这样排布的

AlexNet

        “多个卷积层+一个池化层”的结构
  • 8
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值