![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Tensorflow
JasonSparrow_1
这个作者很懒,什么都没留下…
展开
-
Tensorflow(二)
OptimizerStochastic Gradient Descent (SGD)基础方法,是mini batch中的一种,加了随机MomentumW+=−LearningRate∗dxW+=-LearningRate *dxW+=−LearningRate∗dx即原始的WWW加上一个负的学习效率乘上一个矫正值dxdxdx数学公式如下:一定程度上保留之前更新的方向(像一个醉汉,随...原创 2019-02-24 17:34:28 · 199 阅读 · 0 评论 -
Tensorflow(一)
…原创 2019-02-20 21:05:09 · 179 阅读 · 0 评论