基于pyTorch应用的2D函数优化实例

这篇博客展示了如何利用pyTorch进行2D函数优化,通过实例解释了选择一个2D函数,用3D曲线描绘其形状,并采用随机梯度方法找到函数的最小值点,验证了优化过程的成功。
摘要由CSDN通过智能技术生成

基于pyTorch应用的2D函数优化实例

内容来自:
https://www.bilibili.com/video/BV1Rv411y7oE?p=36

首先选定一个简单的2D函数

在这里插入图片描述
用3D曲线表达如图所示
用3D曲线表达如图所示
通过图像容易观察到有四个最小值解,该解可以直接通过高斯扰动直接解出来:
在这里插入图片描述
下面通过求解该函数验证一下设置的优化是否成功:

首先将该函数实现出来

def himmelblau(x):
    return (x[0] ** 2 + x[1] - 11) ** 2 + (x[0] + x[1] ** 2 - 7) ** 2
x = np.arange(-6,6,0.1)
y = np.arange(-6,6,0.1)
print('x,y range:',x.shape,y.shape)
X,Y = np.meshgrid(x,y)
print('X,Y maps:',X.shape,Y.shape)
Z = himmelblau([X,Y])

fig = plt.figure('himmelblau')
ax = fig.gca(projection = '3d')
ax.plot_surface(X,Y,Z)
ax.view_init(60,-30)
ax.set_xlabel('x')
ax.set_ylabel('y')
plt.show()

在这里插入图片描述
下面使用随机梯度方法进行求解

x = torch.tensor([0.,0.],requires_grad = True)
optimizer = torch.optim.Adam([x],lr = 1e-3)
for step in range(20000):
    pred = himmelblau(x)
    optimizer.zero_grad()
    pred.backward()
    
    # x' = x - lr * delta
    # y' = y - lr * delta
    optimizer.step()
    
    if step % 2000 ==0:
        print(f"step {step}: x = {x.tolist()} f(x) = {pred.item()}")

在这里插入图片描述
根据运行结果可以观察到找到的一个最小点是(3,2)与高斯扰动的解一致

然后更改一下初始化寻求验证其它解

x = torch.tensor([-6.,0.],requires_grad = True)
optimizer = torch.optim.Adam([x],lr = 1e-3)
for step in range(20000):
    pred = himmelblau(x)
    optimizer.zero_grad()
    pred.backward()
    
    # x' = x - lr * delta
    # y' = y - lr * delta
    optimizer.step()
    
    if step % 2000 ==0:
        print(f"step {step}: x = {x.tolist()} f(x) = {pred.item()}")

在这里插入图片描述
该点为(-3.77,-3.28)亦与高斯扰动的解一致

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值