ML&DL
弦音2018
这个作者很懒,什么都没留下…
展开
-
深度学习的训练技巧总结--台大李宏毅机器学习课程笔记
主要记录一些学习过程,以后查阅也方便,来源:李宏毅机器学习课程Early Stopping此时提前停止的testing set是有label的data,一般是自己划分出来的Val验证集数据或类似kaggle的public setRegularization都是很小的值,因此每次update之前就相当于乘上一个接近1的数,比如0.99,这相当于前面越来越接近0...原创 2019-04-01 21:10:15 · 948 阅读 · 1 评论 -
一文带你理解卷积神经网络(CNN),附代码实现与CNN网络训练基本概念讲解
回顾一下BP神经网络,BP网络每一层节点是一个线性的一维排列状态,层与层的网络节点之间是全连接的,如果我们有100x100像素的图像,有1万个隐层神经元,每个隐层神经元都连接图像的每一个像素点,就有100x100x10000=10810^8108个连接,也就是10810^8108个权值参数,而如果我们隐藏层不止一层,那么权值参数数量是非常巨大的,这样不仅会使网络计算速度变慢,更有可能导致另一个问题...原创 2019-03-14 11:05:08 · 3356 阅读 · 0 评论 -
Bagging与Boosting算法的原理与区别,Boosting算法之一Adaboost原理与代码实现
1. Bagging和Boosting的原理与区别在讲解Boosting之前,必须提一下Bagging算法。两者作为机器学习中集成学习的主要算法,其思想是必须理解和掌握的。总的来说Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类或回归算法的组装方法,即将弱分类器组装成强分类器的方法。Bagging:Baggi...原创 2019-03-08 19:24:39 · 2371 阅读 · 1 评论 -
我的第一个kaggle铜牌经历
参加的这次kaggle比赛是一个关于客户购买预测的机器学习的比赛,最终Public和Private榜综合计算后名次是458/8800,这也是第一个完成度最高的比赛,以往天池的比赛都是跟进几天就不再做了。亲自看着从参加此比赛时的几百个队伍到最终的9000多个队伍,官方清理和结算一些违规和小号之后最终队伍数是8800个,很可惜的是440名以前就可以拿到银牌,但还是差了一些名次,因为是solo也没人一起...原创 2019-04-17 13:24:38 · 4312 阅读 · 3 评论