机器学习笔记(含图像处理)
一、回归
1. 梯度下降
梯度下降是通过不断更新各个变量的参数得到代价函数的全局最小值,更新方式为:原来的参数-步长×代价函数对参数的偏导。
注意:迭代次数和步长需要由自己设定。
越接近最小值时,代价函数对参数的偏导(即斜率)就越小,则达到最小值就越慢。
代码:
def gradientDescent(X, y, theta, alpha, iters):
temp = np.matrix(np.zeros(theta.shape))
parameters = int(theta
原创
2020-08-27 20:29:43 ·
2694 阅读 ·
0 评论