- 博客(1)
- 收藏
- 关注
原创 梯度下降算法学习心得
梯度下降算法学习心得分为深度和非深度两种一. 非深度损失函数定义为方差函数:loss=1/2(y-h)^2参数更新部分的代码需要手撕,每个参数同时但是单独更新,梯度是用上次更新的所有θ和样本数据计算得来的,实际操作上可以在每次更新开始之前先把所有数据点对应的梯度先计算出来,批量梯度是用这些计算来的梯度的平均值来更新每个θ,随机梯度则是用单个数据点的梯度更新,最小批量是用部分数据点的梯度的平均值更新:批量梯度下降随机梯度下降最小批量梯度下降二. 深度用pytorch
2021-05-25 11:30:29
494
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人