Tensorflow2.0笔记 - Himmelblau函数优化案例

        本笔记记录Himmelblau函数优化案例代码,包括函数的图形绘制和梯度下降求解局部最优解的过程。

import tensorflow as tf
import numpy as np
from mpl_toolkits.mplot3d import Axes3D
from matplotlib import pyplot as plt
tf.__version__

#Himmelblau函数
#https://zhuanlan.zhihu.com/p/682566976
#最小值(0)位置(x,y)有四个:(3.0, 2.0),(-2.805118, 3.131312),(-3.779310,-3.283186),(3.584428,-1.848126)
def himmelblau(xy):
    return (xy[0]**2 + xy[1] - 11)**2 + (xy[0] + xy[1]**2 - 7)**2
#首先通过meshgrid绘制H函数的图像
x = np.arange(-6, 6, 0.1)
y = np.arange(-6, 6, 0.1)
X,Y = np.meshgrid(x, y)
Z = himmelblau([X,Y])

fig = plt.figure("Himmelblau Figure")
axes = fig.add_axes(Axes3D(fig))
axes.plot_surface(X, Y, Z)
axes.view_init(30, -30)
axes.set_xlabel("X")
axes.set_ylabel("Y")
plt.show()

#对H函数进行梯度下降运算
#初始点坐标的选取会影响到梯度下降后的局部最优解的坐标
#选取的点坐标为[-4, 0],这个点最终的局部最优解坐标应该是(-3.779310,-3.283186)
#还可以尝试[1,0],[4, 0]看看
x = tf.constant([-4., 0.])

#进行200次梯度下降
#学习率设置为0.01
lr = 0.01
for step in range(200):
    with tf.GradientTape() as tape:
        tape.watch([x])
        y = himmelblau(x)
    #求解梯度
    grads = tape.gradient(y, [x])[0]
    x -= lr*grads
    #每隔10次打印一下当前优化解的点坐标
    if step % 10 == 0:
        print("step[{}]: x = {}, f(x) = {})".format(step, x.numpy(), y.numpy()))

运行结果:

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

亦枫Leonlew

希望这篇文章能帮到你

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值