动手学深度学习PyTorch版---lastDay_1

目录

 

lastDay

1.凸优化

1.1优化在深度学习中的挑战

2.梯度下降

2.1梯度下降法--GD

2.2随机梯度下降---SGD

2.3小批量随机梯度下降---mini-SGD

2.4 SGD Momentum

2.5 AdaGrad

2.6 RMSProp   

2.7 AdaDelta

2.8 Adam


lastDay

凸优化;梯度下降;优化算法进阶;

1.凸优化

1.1优化在深度学习中的挑战

  1. 局部最小值
  2. 鞍点
  3. 梯度消失

2.梯度下降

2.1梯度下降法--GD

假设有n个样本,batch_size=n

存在问题:容易陷入局部极小值

时间复杂度O(n)

def f(x):
    return x**2  # Objective function

def gradf(x):
    return 2 * x  # Its derivative

def gd(eta):
    x = 10
    results = [x]
    for i in range(10):
        x -= eta * gradf(x)
        results.append(x)
    print('epoch 10, x:', x)
    return results

res = gd(0.2)

2.2随机梯度下降---SGD

假设有n个样本,batch_size=1

缺点:存在震荡,抖动

时间复杂度:O(1)

2.3小批量随机梯度下降---mini-SGD

假设有n个样本,batch_size=m(小批量m个)

时间复杂度O(m)

2.4 SGD Momentum

ill-conditioned

由指数加权移动平均(exponential moving average)理解动量法

2.5 AdaGrad

根据自变量在每个维度的梯度值的大小来调整各个维度上的学习率,从而避免统一的学习率难以适应所有维度的问题

2.6 RMSProp   

相当于  AdaGrad+expotential moving average

2.7 AdaDelta

对RMSProp的改进

2.8 Adam

相当于RMSProp+Momentum

下一篇 动手学深度学习PyTorch版---lastDay_2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值