20、TensorFlow教程--- 优化器

本文介绍了TensorFlow中的优化器,如随机梯度下降、动量优化、Adagrad等,并重点讨论了随机梯度下降优化器的创建和基本参数设定。
摘要由CSDN通过智能技术生成

优化器是扩展类,其中包含训练特定模型所需的附加信息。优化器类使用给定的参数进行初始化,但重要的是要记住不需要 Tensor。优化器用于提高训练特定模型的速度和性能。

TensorFlow 的基本优化器是 −

tf.train.Optimizer

这个类在 tensorflow/python/training/optimizer.py 的指定路径中定义。

以下是一些 TensorFlow 中的优化器 −

- 随机梯度下降(Stochastic Gradient Descent)
- 带梯度剪切的随机梯度下降(Stochastic Gradient Descent with Gradient Clipping)
- 动量(Momentum)
- Nesterov 动量(Nesterov Momentum)
- Adagrad
- Adadelta
- RMSProp
- Adam
- Adamax
- SMORMS3

我们将专注于随机梯度下降优化器。创建该优化器的示例如下所示 −

def sgd(cost, params, lr = np.float32(0.01)):
   g_params = tf.gradients(cost, params)
   updates = []
   
   for param, g_param in zip(params, g_params):
      updates.append(param.assign(param - lr*g_param))
   return updates

基本参数在特定函数内定义。在我们的后续章节中,我们将专注于梯度下降优化以及优化器的实现。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Knowledgebase

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值