homework3——梯度下降和反向传播

使用python实现梯度下降和反向传播

import torch
import numpy as np

x_data = np.random.randint(1, 6, size=(3))
y_data = (x_data*x_data)*3.0 + x_data*2 + 2.0
print("x_data:", x_data, "y_data:", y_data)

w1 = torch.tensor([1.0], requires_grad=True)  # 设置初值
w2 = torch.tensor([1.0], requires_grad=True)
bias = torch.tensor([1.0], requires_grad=True)


def forward(x):
    return (x*x)*w1 + x*w2 + bias

def loss(x, y):    # MSE
    y_pred = forward(x)
    return ((y_pred - y) ** 2).mean()

for epoch in range(100):
    for x, y in zip(x_data, y_data):
        l = loss(x, y)  # 构建计算图
        l.backward()    # 反向计算梯度并保存
        print("grad: ", x, y, w1.grad.item(), w2.grad.item(), bias.grad.item())  # 打印梯度

        # 更新weights和bias
        w1.data = w1.data - 0.001 * w1.grad.data
        w2.data = w2.data - 0.001 * w2.grad.data
        bias.data = bias.data - 0.001 * bias.grad.data

        # 梯度清零
        w1.grad.data.zero_()
        w2.grad.data.zero_()
        bias.grad.data.zero_()

    print("epoch: {}\tl: {}\tw1: {}\tw2: {}\tbias: {}\t".format(epoch, l.item(), w1.item(), w2.item(), bias.item()))

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
优化算法作业主要是指在给定的问题背景下,通过设计和实现合适的算法来提高求解问题的效率和准确性。在解决优化问题时,可以通过以下几个步骤来完成作业。 首先,需要明确问题的目标是什么。例如,是要寻找最小值或最大值,或者是要满足一定的约束条件。了解问题的目标有助于我们选择合适的算法。 其次,根据问题的特点选择合适的优化算法。常见的优化算法包括贪心算法、动态规划、遗传算法、模拟退火算法等。不同的问题可能适合不同的算法,例如贪心算法适用于某些问题的局部优化,而动态规划适用于某些问题的全局优化。 然后,需要对选定的算法进行进一步的分析和改进。对算法进行分析可以评估算法的时间复杂度和空间复杂度,了解算法的优势和劣势。如果已有的算法不够优化,可以针对问题特点进行改进,例如引入剪枝策略、优化循环结构等。 最后,根据优化算法的设计和改进,实现相应的代码,并进行实验验证。通过实验可以验证算法的正确性和效率,并对实验结果进行分析和总结。如果有必要,可以对算法进行调优,进一步提高算法的性能。 总之,优化算法作业需要我们根据问题的特点选择合适的算法,并进行进一步的分析和改进,最终通过实验验证算法的效果。通过对问题的细致思考和创新性设计,可以提高优化算法的效率和准确性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值