Tensorflow
JasonSparrow_1
这个作者很懒,什么都没留下…
展开
-
Tensorflow(二)
Optimizer Stochastic Gradient Descent (SGD) 基础方法,是mini batch中的一种,加了随机 Momentum W+=−LearningRate∗dxW+=-LearningRate *dxW+=−LearningRate∗dx 即原始的WWW加上一个负的学习效率乘上一个矫正值dxdxdx 数学公式如下: 一定程度上保留之前更新的方向(像一个醉汉,随...原创 2019-02-24 17:34:28 · 185 阅读 · 0 评论 -
Tensorflow(一)
…原创 2019-02-20 21:05:09 · 172 阅读 · 0 评论