python实现梯度下降

01fe4df448f146598f2f69b4aa67b1f5.png

import numpy as np

x1 = np.array([2.104, 1.600, 2.400, 1.416, 3.000])  # 数值过大会报错
x2 = np.array([3, 3, 3, 2, 4])
y = np.array([4.00, 3.30, 3.69, 2.32, 5.40])
alpha = 0.01  # 学习率0.01
# 赋初始值都为0
th0 = 0
th1 = 0
th2 = 0


def sum(x1, x2):
    return th0 + th1 * x1 + th2 * x2  # 求和函数


for i in range(1000):    # 迭代1000次
        th0 = th0 - alpha * (sum(x1[i % 5], x2[i % 5]) - y[i % 5])  # 梯度下降公式
        th1 = th1 - alpha * (sum(x1[i % 5], x2[i % 5]) - y[i % 5]) * x1[i % 5]
        th2 = th2 - alpha * (sum(x1[i % 5], x2[i % 5]) - y[i % 5]) * x2[i % 5]

        gred0 = (sum(x1[i % 5], x2[i % 5]) - y[i % 5])              # 梯度公式
        gred1 = (sum(x1[i % 5], x2[i % 5]) - y[i % 5]) * x1[i % 5]
        gred2 = (sum(x1[i % 5], x2[i % 5]) - y[i % 5]) * x2[i % 5]

        # 条件判断,偏导趋于零
        if (abs(gred0) < 0.01 and abs(gred1) < 0.01 and abs(gred2) < 0.01):
            print(th0, th1, th2)
            print(gred0, gred1, gred2)
            break

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值