![](https://img-blog.csdnimg.cn/75f100fce0d249cb8f47029395065705.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
李沐深度学习
李沐深度学习感悟以及笔记
忆萧
这个作者很懒,什么都没留下…
展开
-
李沐深度学习-04.04暂退法
有人建议在计算后续层之前向网络的每一层注入噪声。因为当训练一个有多层的深层网络时,注入噪声只会在输入-输出映射上增强平滑性。这个想法被称为暂退法(dropout)。这种方法之所以被称为暂退法,因为我们从表面上看是在训练过程中丢弃(drop out)一些神经元。在整个训练过程的每一次迭代中,标准暂退法包括在计算下一层之前将当前层中的一些节点置零。那么关键的挑战就是如何注入这种噪声。在标准暂退法正则化中,通过按保留(未丢弃)的节点的分数进行规范化来消除每一层的偏差。原创 2023-10-16 15:52:27 · 99 阅读 · 1 评论 -
李沐深度学习-04.03权重衰减
权重衰减原创 2023-10-15 17:40:37 · 90 阅读 · 1 评论 -
李沐深度学习-03.02线性回归的测试代码
李沐深度学习测试代码原创 2023-10-09 15:28:42 · 30 阅读 · 1 评论 -
李沐深度学习-03.01线性回归的实现
李沐深度学习笔记之线性回归原创 2023-10-09 15:18:22 · 36 阅读 · 1 评论 -
李沐深度学习-04.01多层感知机的从零开始实现
此篇尝试了正常的测试,以及加入测试了偏置值为0的测试,以及层数的添加测试。原创 2023-10-11 15:43:18 · 51 阅读 · 0 评论 -
李沐深度学习-04.02模型选择、过拟合、欠拟合
拟合问题原创 2023-10-12 17:59:52 · 137 阅读 · 0 评论 -
李沐深度学习-03.05softmax简洁实现
softmax简洁实现原创 2023-10-09 22:27:49 · 91 阅读 · 1 评论 -
李沐深度学习-0304梯度求解
梯度的笔记原创 2023-10-09 16:46:09 · 37 阅读 · 1 评论 -
李沐深度学习-03.03softmax回归从零开始实现
深度学习的softmax笔记原创 2023-10-09 16:08:38 · 76 阅读 · 1 评论