//这篇文章讲的这些优化器的原理,有可能不对。 这节课来介绍一下优化器,Optimizer。
在TensorFlow中目前有下面这几种优化器:
这几种里面也不是每种都经常使用,用的比较多的有SGD、Adadelta、Adam、RMSPorop、。我们从中抽取几个讲一下。
SGD Adagrad RMSPorop Momentum NAG
一、SGD
|
各种优化器的介绍
最新推荐文章于 2024-04-04 06:41:48 发布
//这篇文章讲的这些优化器的原理,有可能不对。 这节课来介绍一下优化器,Optimizer。
在TensorFlow中目前有下面这几种优化器:
这几种里面也不是每种都经常使用,用的比较多的有SGD、Adadelta、Adam、RMSPorop、。我们从中抽取几个讲一下。
SGD Adagrad RMSPorop Momentum NAG
一、SGD
|