笔记: 批量梯度下降参数求解实现

57 篇文章 1 订阅
22 篇文章 0 订阅
"""
批量梯度下降

目前统一的停止策略都是执行n次停止
场景:一元线性回归参数求解
"""
import numpy as np

# 定义随机种子,使每次随机的数据都和第一次随机时的数据一致
np.random.seed(1)
# 构造数据集
X = 2 * np.random.rand(100, 1)
Y = 4 + 3 * X + np.random.randn(100, 1)  # 构造正态分布的误差项
# 拉链函数
X = np.c_[np.ones((100, 1)), X]  # y = wx + b (x1,x0)


# 初始化梯度下降相关参数
learning_rate = 0.001          # 学习率,控制梯度下降速度
n_iterations = 10000           # 迭代次数
m = 100                        # 手动定义样本集长度
theta = np.random.randn(2, 1)  # 初始化theta(最终的目标)


if __name__ == "__main__":
    for _ in range(n_iterations):
        # 求梯度
        gradients = 1/m * X.T.dot(X.dot(theta) - Y)

        # 更新theta
        theta -= learning_rate * gradients

# 计算出批量梯度下降的theta
print(theta)
[[4.06251918]
 [2.9927268 ]]
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值