- 博客(3)
- 收藏
- 关注
原创 《深度学习详解》第一章笔记
1.4 梯度下降法(Gradient Descent)基本原理:选择一个初始点(随机选择),计算该点处的损失函数的梯度。激活函数(Activation Function):增加模型的非线性能力,使得模型能够学习复杂的非线性关系。常用的优化方法是梯度下降(Gradient Descent),它通过计算损失函数相对于每个参数的偏导数(梯度),沿着损失下降的方向调整参数。损失函数定义(Loss Function Definition):损失函数用于衡量模型预测值与真实值之间的差距,是一个关于模型参数的函数。
2024-08-27 20:35:13 650
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人