![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
kuaileyichu
这个作者很懒,什么都没留下…
展开
-
优化器怎么选?一文教你选择合适的优化器
优化器是深度学习领域的重要组成模块之一,执行深度学习任务时采用不同的优化器会产生截然不同的效果。这也是研究者们不遗余力「炼丹」的原因之一。常见的优化算法包括梯度下降(变体 BGD、SGD 和 MBGD)、Adagrad、Adam、Momentum 等,如此繁多的优化器应该如何做出抉择呢?不久前,Lightly-ai 的机器学习工程师 Philipp Wirth 撰写了一篇指南,总结了计算机视觉、自然语言处理和机器学习领域普遍使用的流行优化器,并就如何选择合适的优化器给出了建议。原文链接:https://转载 2021-03-26 09:54:28 · 287 阅读 · 0 评论 -
Kaggle数据挖掘竞赛冠军及优胜者代码汇总
Kaggle数据挖掘竞赛冠军及优胜者代码汇总原文:http://www.chioka.in/kaggle-competition-solutions/ Kaggle Competition Past Solutions Posted on Aug 18, 2013 • lo [edit: last update at 2014/06/27....转载 2018-11-14 20:07:09 · 1527 阅读 · 0 评论 -
转:第一次参加Kaggle拿银总结
转自:第一次参加Kaggle拿银总结作者:ScarletPan我的比赛代码已经放到github --> Kaggle-Rental-Listing-Inquireies在这篇博客开始之前,我必须感谢导师给我提供服务器资源,@Fenix Lin学长从他自身经验出发耐心地为我解答一些困惑,素未谋面的@Wille学长的一篇非常优秀的博文如何在Kaggle 首战中进入前 10%帮助入门,以及...转载 2018-11-15 09:40:31 · 334 阅读 · 0 评论 -
参加 Kaggle 比赛的套路
如何在 15 个月内占领 Kaggle 榜首?bestfitting 经验大放送相信玩过 Kaggle 比赛的人都知道 bestfitting,他在加入 Kaggle 社群短短两年之内,就以黑马之姿成功占领比赛排行榜榜首。近日,Kaggle 对他进行了一次专访,在专访中,我们可以看到关于比赛的满满干货。bestfitting 真名为 Shubin Dai,生活在长沙,他的朋友们喜欢称他为 Bing...翻译 2018-11-29 15:49:33 · 367 阅读 · 0 评论 -
集成学习Boosting、Bagging(Adboost、GBDT、Xgboost、RF)
原文:http://www.cnblogs.com/willnote/p/6801496.html转载 2018-12-05 11:05:54 · 325 阅读 · 0 评论 -
深度解读最流行的优化算法:梯度下降
转自:https://www.cnblogs.com/shixiangwan/p/7532858.html 梯度下降法,是当今最流行的优化(optimization)算法,亦是至今最常用的优化神经网络的方法。本文旨在让你对不同的优化梯度下降法的算法有一个直观认识,以帮助你使用这些算法。我们首先会考察梯度下降法的各种变体,然后会简要地总结在训练(神经网络或是机器学习算法)的过程...转载 2019-05-31 15:25:54 · 556 阅读 · 0 评论 -
人工智能(NLP)常用算法总结(面试准备)
转载于https://blog.csdn.net/u014597198/article/details/82182462,并补充了一些内容 目录文章目录目录一、人工智能学习算法...转载 2019-06-02 10:21:52 · 9995 阅读 · 4 评论