激活层和pooling的作用

激活层:

激活函数其中一个重要的作用是加入非线性因素的,将特征映射到高维的非线性区间进行解释,解决线性模型所不能解决的问题

pooling层:

1. invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度)
2. 保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型泛化能力

参考:https://www.zhihu.com/question/36686900

转载于:https://www.cnblogs.com/llfctt/p/9067508.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
卷积神经网络(CNN)是一种用于图像分类、物体检测和语音识别等任务的深度学习模型。CNN 中包含 Conv Pooling 、ReLU 激活以及最终的 Softmax 输出。 1. Conv :卷积是 CNN 的核心组成部分,它通过卷积操作从输入图像中提取特征。卷积操作实际上是一种滤波操作,通过滑动一个卷积核(也称为过滤器)在输入图像上,将每个卷积核与输入图像上的像素进行点乘,再将点乘结果相加得到一个新的特征图。卷积的输出是一组特征图,每个特征图对应一个卷积核。 2. Pooling :池化用于减小卷积输出的特征图的大小,以减少模型的参数数量和计算复杂度。常用的池化操作有 MaxPooling 和 AveragePooling。MaxPooling 将每个特征图分成若干个不重叠的区域,然后取每个区域中的最大值作为输出;AveragePooling 则是取每个区域中的平均值作为输出。 3. ReLU :ReLU 激活函数是一种非线性函数,它将小于 0 的输入映射为 0,大于等于 0 的输入保持不变。ReLU 在卷积和全连接后通常添加,它有助于提高模型的非线性特征提取能力,并缓解梯度消失问题。 4. Softmax :最终的 Softmax 将卷积和全连接的输出转换为概率分布,用于多类别分类任务。Softmax 函数将输入映射到一个概率分布上,使得所有输出的和为 1,每个输出表示输入属于对应类别的概率。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值