import torch
import torch.optim as optim
# 创建张量 A,并设置 requires_grad 为 True
A = torch.tensor([1.0], requires_grad=True)
# 定义一个简单的损失函数,这里假设损失是 A^2
loss = A**2
# 创建优化器,例如使用随机梯度下降 (SGD)
optimizer = optim.SGD([A], lr=0.1)
# 执行反向传播
loss.backward()
# 使用优化器更新参数
optimizer.step()
# 打印更新后的张量值
print(A)
09-08
258