【深度学习-三步走-笔记总结】

本文介绍了深度学习的基础层,尤其是卷积层,包括卷积层的术语如Stride、Filter,以及正则化手段Dropout。通过卷积层和正则化,可以减少模型复杂性,防止过拟合,提高模型的泛化能力。激活函数ReLU及其改进版如Leaky ReLU也被讨论,以解决负值区域的数据损失问题。
摘要由CSDN通过智能技术生成

基础层

全连接层已经能解决问题,为什么还需要设计别的基础层?
"多层抽象表示"和"感受野增大"是深度学习领域中的基本概念。
然而全连接层仅实现了“多层抽象表示”,未实现“感受野增大”。

当数据规模(神经元个数)较大时,可以采用什么方法?
(1)降低隐藏层中神经元的数量:减少隐藏层中神经元的数量可以降低模型的复杂性,缩减参数空间,从而减少计算量。可以通过减少每个隐藏层中的神经元数量或者减少隐藏层的数量来实现。
(2)使用稀疏连接:将全连接的神经网络结构改为部分连接或者稀疏连接,即只保留部分神经元之间的连接关系,可以有效减少参数的数量和计算复杂度,提高模型的计算效率。

降低隐藏层中神经元的数量可以通过以下方式实现:
(1)局部性:典型特征远远小于整幅图像。
(2)相同性:相同的特征可能在图像的不同位置出现,因此可以让部分神经元采用相同的参数。这样一来,神经元的数量可以大大减少,而且模型仍然可以有效地捕获图像中的重要特征。
(3)尺度不变性:通过在模型中引入尺度不变性的设计,可以确保图像的尺度变化(例如图像的放大或缩小)不会影响模型对目标特征的识别能力。例如,可以通过使用池化层来实现尺度不变性,使得模型对图像的尺度变化具有鲁棒性。

卷积

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值