1、Rosenbrock函数
#!/user/bin/env python
#-*- coding:utf-8 -*-
#梯度下降Rosenbrock函数
def rb(x,y):
#定义rosenbrock函数
return (1-x)**2+100*(y-x**2)**2
def partial_x(x,y):
#计算x的偏导数
return -2*(1-x)-400*x*(y-x**2)
def partial_y(x,y):
#计算y的偏导数
return 200*(y-x**2)
def bgd_rosenbrock():
x=0
y=0
i=0
learning_rate = 0.001
while i < 10000:
#步长0.001下降10000步
x = x - learning_rate * partial_x(x, y)
y = y - learning_rate * partial_y(x, y)
print('min',rb(x,y))
i = i+1
bgd_rosenbrock()
最终最小结果
min 7.6209387766275974e-06