- 博客(5)
- 资源 (1)
- 收藏
- 关注
原创 《动手学深度学习》暂退法(Dropout 正则化)又名丢弃法
暂退法在前向传播过程中,计算每一内部层的同时丢弃一些神经元。暂退法可以避免过拟合,它通常与控制权重向量的维数和大小结合使用的。
2022-09-19 16:04:44 931 1
原创 《动手学深度学习》4.5. 权重衰减(李沐)
代码学习笔记(含详细注释)。通过一个简单的例子来演示权重衰减。正则化是处理过拟合的常用方法:在训练集的损失函数中加入惩罚项,以降低学习到的模型的复杂度。
2022-09-17 22:45:01 985
原创 《动手学深度学习》模型选择、欠拟合和过拟合(李沐)
模型选择、欠拟合和过拟合(4.多层感知机)代码学习笔记(含详细代码注释)4.4.4. 多项式回归通过多项式拟合来探索模型选择、欠拟合和过拟合过程
2022-09-16 22:08:28 856
原创 《动手学深度学习》softmax回归的从零开始实现
softmax回归的从零开始实现,代码学习笔记。大多数常见的深度学习模型都有类似的训练过程。通过更改它们的值,我们可以提高模型的分类精度。现在训练已经完成,我们的模型已经准备好对图像进行分类预测。给定一系列图像,我们将比较它们的实际标签(文本输出的第一行)和模型预测(文本输出的第二行)。修改:在使用对象数组时,不要直接用’对象名.[i]',修改为‘对象名.data[i]’。(1)借助softmax回归,我们可以训练多分类的模型。
2022-09-12 23:56:47 816
数据结构课程设计报告.docx
2020-05-23
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人