梯度下降(Gradient descent,GD)
优化函数Optimizer Algorithm:
梯度下降(Gradient descent,GD)
其中 表示假设预测函数的theta系数,神经网络中theta1为权重w,theta0为偏置b,为学习率lr,J为关于theta的损失函数Loss。
实现代码(线性预测案例,y=a*x+b,通过最小化loss,优化a,b参数拟合预测曲线):
import matplotlib.pyplot as plt
#预测拟合函数
def h_x(theta0,theta1,x):
return theta0+t
原创
2020-09-24 17:13:25 ·
313 阅读 ·
0 评论