- 博客(5)
- 收藏
- 关注
原创 动手学深度学习【多层感知机】
我们的数据可能会有⼀种表⽰,这种表⽰会考虑到我们在特征之间的相关交互作⽤。在此表⽰的基础上建⽴⼀个线性模型可能会是合适的,但我们不知道如何⼿动计算这么⼀种表⽰。对称性 (我们在每⼀层的隐藏单元之间具有排列对称性,交换每层的隐藏单元,可以获得相同的函数。W(1)的所有元素仍然采⽤相同的值,我们可能永远也⽆法实现⽹络的表达能⼒)进⾏惩罚在不同的实践中会有所不同,在神经⽹络的不同层中也会有所不同。如果通过许多不同的暂退法遮盖后得到的预测结果都是⼀致的,那么我们可以说⽹络发挥更稳定。
2023-04-02 15:06:34 144
原创 动手学深度学习:【线性回归+softmax回归总结】
5.训练顺序:循环所有小批量(获得损失函数→ 反向传播→求梯度更新参数)获得最优参数→利用分类精度,计算最优参数下预测的正确率。一、.线性回归用于预测输出为一个标量,softmax回归用于分类输出为【0,1,2...】中的一个。4.训练顺序:循环所有小批量(获得损失函数→ 反向传播→求梯度更新参数)获得最优参数→。常⻅的深度学习模型:读取数据→定义模型和损失函数→优化算法训练模型。),可以避免反向传播过程中可能会困扰我们的数值稳定性问题。正向传播,计算该最优参数下的损失。六、softmax回归简洁实现。
2023-03-18 20:17:36 359
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人