Deep Learning
文章平均质量分 68
Lfxxxx
研究方向:机器学习,深度学习
目前小白一只
展开
-
激活函数
http://blog.csdn.net/u013146742/article/details/51986575转载 2016-12-21 10:26:21 · 166 阅读 · 0 评论 -
deeplearning深度学习疑惑总结
01.在神经网络中weight decay起到的做用是什么?momentum?normalization? ① weight decay(权值衰减)的使用既不是为了提高你所说的收敛精确度也不是为了提高收敛速度,其最终目的是防止过拟合。 在损失函数中,weight decay是放在正则项(regularization)前面的一个系数,正则项一般指示模型的复杂度,所以weight dec转载 2017-09-14 20:43:18 · 439 阅读 · 0 评论