随机梯度下降法

随机梯度下降法相对于批量梯度下降法的优点:
1.跳出局部最优解
2.更快的运行速度
批量梯度下降法,每次计算梯度使用全部样本,
随机梯度下降法,每次计算梯度使用一个样本。

import numpy as np

def J(x,y,theta):
    try:
        return np.sum((y-x.dot(theta))**2) / len(theta)
    except:
        return float("inf")

def dJ(x,y,theta):
    return 2 * x.T.dot(x.dot(theta)-y)

def sgd(x,y,inital_theta,n_iter):
    t0 ,t1 = 5 , 50
    def learning_rate(t):
        return t0 / (t + t1)
    
    theta = inital_theta
    for cur_iter in range(n_iter):
        rand_i = np.random.randint(len(x))
        gradient = dJ(x[rand_i],y[rand_i],theta) 
        theta = theta - learning_rate(cur_iter)*gradient
    return theta

m = 10000

x = np.random.random(size=m)
X = x.reshape(-1,1)
y = 4.*x + 3. + np.random.normal(size=m)

X = np.hstack([np.ones((len(X),1)),X])
inital_theta = np.zeros(X.shape[1])
theta = sgd(X,y,inital_theta,n_iter=m//3)

随机梯度下降法中,学习率采用模拟退火法。
随着迭代次数的增多,而改变。
随机抽取样本,来计算梯度。
这里选用随机样本,选取总体的三分之一,来计算梯度。
得到的结果为

theta
array([3.04776308, 3.77108833])
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值