深度学习常用优化器介绍

    深度学习的优化算法从SGD-->SGDM-->NAG-->AdaGrad-->AdaDelta-->Adam-->Nadam这样的发展历程,理论知识参考这里,下面我们依次介绍TensorFlow中这些优化器的实现类,官方文档

1、tf.train.Optimizer

    优化器(optimizers)类的基类。这个类定义了在训练模型的时候添加一个操作的API。你基本上不会直接使用这个类,但是你会用到他的子类比如GradientDescentOptimizer, AdagradOptimizer, MomentumOptimizer.等等这些。 后面讲的时候会详细讲一下GradientDescentOptimizer 这个类的一些函数,然后其他的类只会讲构造函数,因为类中剩下的函数都是大同小异的。

2、tf.train.GradientDescentOptimizer

    这个类是实现梯度下降算法的优化器。(结合理论可以看到,这个构造函数需要的一个学习率就行了)

(1) __init__(learning_rate, use_locking=False,name=’GradientDescent’)

     参数: 
        learning_rate: A Tensor or a floating point value. 要使用的学习率 
        use_locking: 要是True的话,就对于更新操作&#

深度学习常用的优化算法主要包括以下几个: 1. **梯度下降法** (Gradient Descent): 是最基础的优化算法,通过迭代更新模型参数,沿着损失函数下降最快的方向前进。有批量梯度下降(Batch Gradient Descent)、随机梯度下降(SGD)和小批量梯度下降(Mini-Batch GD),其SGD计算速度快但可能会发散,而Mini-Batch GD在两者间取得平衡。 2. **动量法** (Momentum): 加入了历史梯度信息,有助于加速收敛并减少震荡,类似于物理的动量概念。 3. **自适应学习率算法**: - **Adagrad**: 自适应地调整每个参数的学习速率,对于稀疏数据效果较好。 - **RMSprop**: 综合了Adagrad的优点,并对过去的梯度做了指数衰减平均处理。 - **Adam**: 结合了动量和RMSprop的思想,通常被认为是最优选择,因为它考虑了梯度的一阶矩估计和二阶矩估计。 4. **Nesterov Accelerated Gradient (NAG)**: 是一种改进版的动量法,先预测一步再更新,理论上比标准动量法更快收敛。 5. **Adadelta**: 类似于RMSprop,但它不需要设置初始学习率,能自我调节学习率。 6. **L-BFGS** (Limited-memory Broyden-Fletcher-Goldfarb-Shanno): 非凸优化的一种高效算法,适合小规模问题。 7. **AdamW** 或 **Decoupled Weight Decay Regularization**: Adam的基础上增加了权重衰减项,防止过拟合。 这些算法的选择往往取决于具体的任务、数据集大小以及模型架构,实践可能会结合正则化技术和其他技巧来进一步提升性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值