- 博客(7)
- 收藏
- 关注
转载 #Deep Learning回顾#之LeNet、AlexNet、GoogLeNet、VGG、ResNet
CNN的发展史 上一篇回顾讲的是2006年Hinton他们的Science Paper,当时提到,2006年虽然Deep Learning的概念被提出来了,但是学术界的大家还是表示不服。当时有流传的段子是Hinton的学生在台上讲paper时,台下的机器学习大牛们不屑一顾,质问你们的东西有理论推导吗?有数学基础吗?搞得过SVM之类吗?回头来看,就算是真的,大牛们也确实不算...
2016-08-30 13:06:00 256
转载 #Deep Learning回顾#之2006年的Science Paper
大家都清楚神经网络在上个世纪七八十年代是着实火过一回的,尤其是后向传播BP算法出来之后,但90年代后被SVM之类抢了风头,再后来大家更熟悉的是SVM、AdaBoost、随机森林、GBDT、LR、FTRL这些概念。究其原因,主要是神经网络很难解决训练的问题,比如梯度消失。当时的神经网络研究进入一个低潮期,不过Hinton老人家坚持下来了。 功夫不负有心人,2006年Hinton和学生发表...
2016-08-30 13:04:00 92
转载 ICML历年Best Papers
作者:我爱机器学习原文链接:ICML历年Best Papers ICML (Machine Learning)(1999-2016) 2016 Dueling Network Architectures for Deep Reinforcement Learning Ziyu Wang Google Inc. ...
2016-08-30 13:03:00 197
转载 CVPR历年Best Papers
作者:我爱机器学习原文链接:CVPR历年Best Papers CVPR (Computer Vision)(2000-2016) 年份 标题 一作 一作单位 2016 Deep Residual Learning for Image Recognition Kaiming He Microsoft Res...
2016-08-30 13:01:00 132
转载 SIGKDD历年Best Papers
作者:我爱机器学习原文链接:SIGKDD历年Best Papers SIGKDD(Data Mining)(1997-2016) 年份 标题 一作 一作单位 2016 FRAUDAR: Bounding Graph Fraud in the Face of Camouflag...
2016-08-30 12:58:00 230
转载 [导读]Learning from Imbalanced Classes
原文:Learning from Imbalanced Classes 数据不平衡是一个非常经典的问题,数据挖掘、计算广告、NLP等工作经常遇到。该文总结了可能有效的方法,值得参考: Do nothing. Sometimes you get lucky and nothing needs to be done. You can train on the so-c...
2016-08-30 12:52:00 82
转载 机器学习相关的Awesome系列
IndexAwesome备注 1 Awesome Machine Learning 机器学习资源大全中文版 2 AwesomeArtificial Intelligence 人工智能 3 Awesome AwesomenessAwesome Awesome的平方,还有个立方但是不经典 4 Awesome Deep...
2016-08-30 12:48:00 67
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人