深度学习一些公式

文章介绍了梯度下降算法,它是优化模型参数的关键方法,通过学习率和梯度的负方向进行迭代更新。同时提到了交叉损失熵在深度学习中的作用,以及MSE(均方误差)作为评估模型性能的指标。这些概念在训练模型以最小化损失函数中起着重要作用。
摘要由CSDN通过智能技术生成

注:仅供自己学习记录

1.梯度下降算法的公式:

 公式依次代表为“下次迭代的点”、“目前所在的点”、“学习率”和“最大负向梯度”。按照这个公式,每次迭代都会根据上次的步长减去学习率乘以“梯度”的值,去一步一步更新,这样能可以每次迭代都朝着最大负方向去迭代。

参考:深度解读机器学习“梯度下降” – 前端开发,JQUERY特效,全栈开发,vue开发 (jqhtml.com)

2. 交叉损失熵

 参考论文:iDLG: Improved Deep Leakage from Gradients 

梯度:

梯度是损失函数对于变量的变化率,它告诉我们在当前的参数下,损失函数会如何改变。通过计算损失函数相对于模型的参数的梯度,可以使用反向传播算法来更新模型参数,以最小化损失函数并提高模型性能。

3. MSE

参考解析:通俗易懂讲解均方误差 (MSE) - haltakov - 知乎 (zhihu.com)

公式:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值