利用python实现3种梯度下降算法

目录

全量梯度下降

随机梯度下降

小批量梯度下降

三种梯度下降区别和优缺点


全量梯度下降

Batch Gradient Descent

在梯度下降中,对于θ的更新,所有的样本都有贡献,也就是参与调整θ。其计算得到 的是一个标准梯度。因而理论上来说一次更新的幅度是比较大的。如果样本不多的情况下, 当然是这样收敛的速度会更快啦。全量梯度下降每次学习都使用整个训练集,因此其优点在 于每次更新都会朝着正确的方向进行,最后能够保证收敛于极值点(凸函数收敛于全局极值 点,非凸函数可能会收敛于局部极值点),但是其缺点在于每次学习时间过长,并且如果训 练集很大以至于需要消耗大量的内存,并且全量梯度下降不能进行在线模型参数更新。

代码实现:

import numpy as np

# 创建数据集X,y
np.random.seed(1)
X = np.random.rand(100, 1)
y = 4 + 3*X + np.random.randn(100, 1)
X_b = np.c_[np.ones((100, 1)), X]

# 创建超参数
n_iterations = 10000
t0, t1 = 5, 500

# 定义一个函数来动态调整学习率
def learning_rate_schedule(t):
    return t0/(t+t1)

# 1,初始化θ, W0...Wn,标准正太分布创建W
theta = np.random.randn(2, 1)
# 4,判断是否收敛,一般不会去设定阈值,而是直接采用设置相对大的迭代次数保证可以收敛
for i in range(n_iterations):
    # 2,求梯度,计算gradient
    gradients = X_b.T.dot(X_b.dot(theta)-y)
    # 3,应用梯度下降法的公式去调整θ值 θt+1=θt-η*gradient
    learning_rate = learning_rate_schedule(i)
    theta = theta - learning_rate * gradients
print(theta)
[[4.23695725]
 [2.68492509]]

随机梯度下降

Stochastic Gradient Descent

        梯度下降算法每次从训练集中随机选择一个样本来进行学习。批量梯度下降算法每次都 会使用全部训练样本,因此这些计算是冗余的,因为每次都使用完全相同的样本集。而随机 梯度下降算法每次只随机选择一个样本来更新模型参数,因此每次的学习是非常快速的,并 且可以进行在线更新。随机梯度下降最大的缺点在于每次更新可能并不会按照正确的方向进 行,因此可以带来优化波动(扰动)。

        不过从另一个方面来看,随机梯度下降所带来的波动有个好处就是,对于类似盆地区域 (即很多局部极小值点)那么这个波动的特点可能会使得优化的方向从当前的局部极小值点 跳到另一个更好的局部极小值点,这样便可能对于非凸函数,最终收敛于一个较好的局部极 值点,甚至全局极值点。由于波动,因此会使得迭代次数(学习次数)增多,即收敛速度变 慢。不过最终其会和全量梯度下降算法一样,具有相同的收敛性,即凸函数收敛于全局极值 点,非凸损失函数收敛于局部极值点。       

  

代码实现:

import numpy as np

# 创建数据集
X = 2*np.random.rand(100, 1)
y = 4 + 3*X + np.random.randn(100, 1)
X_b = np.c_[np.ones((100, 1)), X]
# 创建超参数
n_epochs = 10000
m = 100
t0, t1 = 5, 500

# 定义一个函数来调整学习率
def learning_rate_schedule(t):
    return t0/(t+t1)

theta = np.random.randn(2, 1)
for epoch in range(n_epochs):
    # 在双层for循环之间,每个轮次开始分批次迭代之前打乱数据索引顺序
    arr = np.arange(len(X_b))
    np.random.shuffle(arr)
    X_b = X_b[arr]
    y = y[arr]
    for i in range(m):
        xi = X_b[i:i+1]
        yi = y[i:i+1]
        gradients = xi.T.dot(xi.dot(theta)-yi)
        learning_rate = learning_rate_schedule(epoch*m + i)
        theta = theta - learning_rate * gradients

print(theta)
[[3.91306085]
 [3.16087742]]

小批量梯度下降

Mini-Batch Gradient Descent

         Mini-batch 梯度下降综合了 batch 梯度下降与 stochastic 梯度下降,在每次更新速 度与更新次数中间取得一个平衡,其每次更新从训练集中随机选择 batch_size,batch_size < m 个样本进行学习。相对于随机梯度下降算法,小批量梯度下降算法降低了收敛波动性, 即降低了参数更新的方差,使得更新更加稳定。相对于全量梯度下降,其提高了每次学习的速度。并且其不用担心内存瓶颈从而可以利用矩阵运算进行高效计算。一般而言每次更新随 机选择[50,256]个样本进行学习,但是也要根据具体问题而选择,实践中可以进行多次试验, 选择一个更新速度与更次次数都较适合的样本数。

代码实现:

import numpy as np

# 创建数据集X,y
X = 2*np.random.rand(100, 1)
y = 4 + 3*X + np.random.randn(100, 1)
X_b = np.c_[np.ones((100, 1)), X]

# 创建超参数
t0, t1 = 5, 500

# 定义一个函数来动态调整学习率
def learning_rate_schedule(t):
    return t0/(t+t1)

n_epochs = 100000
m = 100
batch_size = 10
num_batches = int(m / batch_size)

theta = np.random.randn(2, 1)
for epoch in range(n_epochs):
    arr = np.arange(len(X_b))
    np.random.shuffle(arr)
    X_b = X_b[arr]
    y = y[arr]
    for i in range(num_batches):
        x_batch = X_b[i*batch_size: i*batch_size + batch_size]
        y_batch = y[i*batch_size: i*batch_size + batch_size]
        gradients = x_batch.T.dot(x_batch.dot(theta)-y_batch)
        learning_rate = learning_rate_schedule(epoch * m + i)
        theta = theta - learning_rate*gradients

print(theta)
[[3.91630905]
 [2.95252566]]

三种梯度下降区别和优缺点

在讲三种梯度下降区别之前,我们先来总结一下梯度下降法的步骤:

1. 瞎蒙,Random 随机θ,随机一组数值 W0…Wn

2. 求梯度,为什么是梯度?因为梯度代表曲线某点上的切线的斜率,沿着切线往下下降就 相当于沿着坡度最陡峭的方向下降

3. if g0, theta 往小调

4. 判断是否收敛 convergence,如果收敛跳出迭代,如果没有达到收敛,回第 2 步继续 四步骤对应计算方式:

a. np.random.rand()或者 np.random.randn()

b. i w j gradient = (h (x) - y)× x

c. Wi t+1 =Wi t -h ×gradient i

d. 判断收敛这里使用 g=0 其实并不合理,因为当损失函数是非凸函数的话 g=0 有可能是 极大值对吗!所以其实我们判断 loss 的下降收益更合理,当随着迭代 loss 减小的幅度 即收益不再变化就可以认为停止在最低点,收敛!

区别:其实三种梯度下降的区别仅在于第 2 步求梯度所用到的 X 数据集的样本数量不同! 它们每次学习(更新模型参数)使用的样本个数,每次更新使用不同的样本会导致每次学习的 准确性和学习时间不同

  • 14
    点赞
  • 121
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 7
    评论
小批量梯度下降算法梯度下降算法的一改进,它不是在整个数据集上计梯度,而是在每次迭代中随机选择一小部分数据进行计。这样可以加快训练速度,同时也可以使模型更加稳定。 以下是Python实现小批量梯度下降算法的代码: ```python import numpy as np # 定义损失函数 def loss_function(X, y, w): m = len(X) y_pred = np.dot(X, w) loss = np.sum((y_pred - y) ** 2) / (2 * m) return loss # 定义小批量梯度下降算法 def mini_batch_GD(X, y, w, learning_rate, num_iterations, batch_size): m = len(X) num_batches = m // batch_size for i in range(num_iterations): # 随机打乱数据集 permutation = np.random.permutation(m) X_shuffled = X[permutation] y_shuffled = y[permutation] for j in range(num_batches): # 选择一个小批量数据 start_index = j * batch_size end_index = (j + 1) * batch_size X_batch = X_shuffled[start_index:end_index] y_batch = y_shuffled[start_index:end_index] # 计梯度并更新参数 y_pred = np.dot(X_batch, w) gradient = np.dot(X_batch.T, (y_pred - y_batch)) / batch_size w -= learning_rate * gradient # 计损失并输出 loss = loss_function(X, y, w) print('iteration %d: loss=%f' % (i+1, loss)) return w ``` 其中,X是数据集特征矩阵,y是标签向量,w是模型参数向量,learning_rate是学习率,num_iterations是迭代次数,batch_size是每个小批量数据的大小。在每次迭代中,我们首先将数据集随机打乱,然后选择一个小批量数据进行计,计梯度并更新参数。最后计损失并输出。
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

艾派森

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值