花书+吴恩达深度学习(十三)卷积神经网络 CNN 之运算过程(前向传播、反向传播)

本文详细介绍了卷积神经网络(CNN)的运算过程,包括单层卷积网络的运作机制、各参数维度的解释以及前向传播和反向传播的数学表达式。通过对权重、输入数据和输出数据的3D和4D张量描述,阐述了CNN如何进行卷积计算,并提供了反向传播中梯度计算的公式。
摘要由CSDN通过智能技术生成

目录

0. 前言

1. 单层卷积网络

2. 各参数维度

3. CNN 前向传播反向传播


如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~

花书+吴恩达深度学习(十)卷积神经网络 CNN 之卷积层

花书+吴恩达深度学习(十一)卷积神经网络 CNN 之池化层

花书+吴恩达深度学习(十二)卷积神经网络 CNN 之全连接层

花书+吴恩达深度学习(十三)卷积神经网络 CNN 之运算过程(前向传播、反向传播)

花书+吴恩达深度学习(十四)卷积神经网络 CNN 之经典案例(LetNet-5, AlexNet, VGG-16, ResNet, Inception Network)

0. 前言

本篇文章主要介绍卷积神经网络的运算过程。

整体卷积神经网络的运算趋势,是行和列逐渐减小,通道数逐渐增加。

1. 单层卷积网络

此处以单个样本为例子。

  1. 原始图像(上一层输出)作为 x 。
  2. 每一个过滤器的参数叠加在一起,组成这一层的权重 W 。
  3. 为每个过滤器加上偏差,组成偏差 B ,在卷积之后的 2D 图像的每一个像素上加上偏差。
  4. 通过激活函数 A ,激活函数同样针对 2D 图像的每一个像素。
  5. 则,每一个过滤器计算出来为 2D 图像,多个过滤器组合起来作为 3D 图像
  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值