梯度下降
文章平均质量分 81
懒人元
欢迎关注我的微信公共号:懒人学AI (lanren_ai)
展开
-
Torch中optim的sgd(Stochastic gradient descent)方法的实现细节
Torch中optim的sgd(Stochastic gradient descent)方法的实现细节Overviewsgd的全称是Stochastic gradient descent,关于Stochastic gradient descent我们不在本文详述。 Stochastic gradient descent https://en.wikipedia.org/wiki/Stochast原创 2015-12-26 18:02:11 · 13036 阅读 · 0 评论 -
Batch Normalization Caffe版实现解析
建议先看论文Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift,这样会对本文有更好的理解; 同时使用Batch Normalization的GoogLENet也被称为Inception v2;Batch Normalization Caffe版实现解析BatchN原创 2017-02-22 17:21:08 · 7075 阅读 · 3 评论