python实现梯度下降

import numpy as np
def gradien_desc(theta, X, y, alpha, iters): # 系数矩阵、自变量矩阵、因变量矩阵、收敛系数和迭代次数
    loss_his = np.zeros(iters)
    theta_his = np.zeros((iters,2))
    m = len(y)
    for i in range(iters):
        y_hat = np.dot(theta, X)
        theta -= alpha/m*np.dot(y_hat - y,X.T)# 系数更新
        loss = 1/(2*m)*np.sum(np.square(y_hat-y))
        theta_his[i,:] = theta
        loss_his[i] = loss
    return theta, theta_his, loss_his
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值