以下是一些常见的优化器(Optimizers)的英文名称:
- Gradient Descent(梯度下降)
- Stochastic Gradient Descent(随机梯度下降)
- Mini-Batch Gradient Descent(小批量梯度下降)
- Momentum
- Nesterov Accelerated Gradient(NAG)
- AdaGrad(Adaptive Gradient)
- RMSprop(Root Mean Square Propagation)
- Adam(Adaptive Moment Estimation)
- AdaDelta(Adaptive Delta)
- Adamax
- Nadam(Nesterov-accelerated Adaptive Moment Estimation)
- AMSGrad(Adaptive Moment Estimation with a Stable Variant)
这些优化器是在深度学习中常用的优化算法,用于调整模型的参数以最小化损失函数。每个优化器都有不同的特点和适用场景,具体选择哪个优化器取决于问题的性质和需求。