机器学习
笃厚我无
这个作者很懒,什么都没留下…
展开
-
对深度学习课程中关于梯度下降算法的优化总结
目前神经网络的优化方法有:dropout、正则化、针对样本的mini-batch gradient descent、动量梯度下降算法、RMSprob算法、Adams算法、学习率衰减等:1、dropout(减小过拟合): 是指在模型训练时随机让网络某些隐含层节点的权重不工作,不工作的那些节点可以暂时认为不是网络结构的一部分,但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它...原创 2019-11-04 14:30:36 · 578 阅读 · 0 评论 -
(转)Adaboost算法原理分析和实例+代码(简明易懂)
全文转载自-- http://blog.csdn.net/guyuealian/article/details/70995333本人最初了解AdaBoost算法着实是花了几天时间,才明白他的基本原理。也许是自己能力有限吧,很多资料也是看得懵懵懂懂。网上找了一下关于Adaboost算法原理分析,大都是你复制我,我摘抄你,反正我也搞不清谁是原创。有些资料给出的Adaboost实例,要么...转载 2019-10-31 20:14:07 · 4322 阅读 · 0 评论