卷积神经网络CNN学习笔记

本文是关于卷积神经网络(CNN)的学习笔记,涵盖了卷积、深度、步幅、非线性变换ReLU、池化和完全连接层的基本概念。CNN通过卷积提取图像特征,ReLU引入非线性,池化降低维度,完全连接层用于分类。通过多个卷积、ReLU和池化层构建网络,并通过反向传播和梯度下降优化权重。
摘要由CSDN通过智能技术生成

主要操作

卷积、非线性变换(ReLU)、池化或子采样、分类(完全连接层)

卷积

卷积的主要目的是从输入图像中提取特征。
卷积过程
卷积的解释:将橙色矩阵在原始图像(绿色)上以每次1个像素的速率(也称为“步幅”)移动,对于每个位置,计算两个矩阵相对元素的乘积并相加,输出一个整数并作为最终输出矩阵(粉色)的一个元素。
在卷积神经网路的术语中,这个3 × 3矩阵被称为“过滤器”或“核”或“特征探测器”,通过在图像上移动过滤器并计算点积得到的矩阵被称为“卷积特征”或“激活映射”或“特征映射”。重要的是要注意,过滤器的作用就是原始输入图像的特征检测器。

深度

卷积运算的过滤器数量。如果使用三个过滤器进行卷积就可以得到三个不同的特征图,将这三个特征图视为堆叠的二维矩阵,因此特征映射的深度为3。

步幅

在输入矩阵上移动一次过滤器矩阵的像素数量。步幅越大,生成的特征映射越小。

非线性变换ReLU

ReLU 是一个针对元素的操作(应用于每个像素),并将特征映射中的所有负像素值替换为零。ReLU 的目的是在卷积神经网络中引入非线性因素(卷积是一个线性运算 —— 按元素进行矩阵乘法和加法,所以我们希望通过引入 ReLU 这样的非线性函数来解决非线性问题)。
其他非线性函

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值