![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
_Amsterdam
明明适合搞产品的、偏偏还搞技术的、力争保住发际线的、渣渣小硕、孤苦伶仃的研究僧生活、马上要踏入社会的可是我还是个孩子、减肥上分中、、、
展开
-
深度学习--资料篇
实验室学长给的意见是先学习机器学习,再学习深度学习。资料列表:1.西瓜书《机器学习》(周志华著)+AI圣经《Deep learning》/《深度学习》(英/中文版都有,根据自己情况来,中文版也不错)(作者是Ian Goodfellow,Yoshua Benjio等人)2.tensorflow的学习可以买本书参考,也可以直接去英文官网看教程,不懂去看官网,也可以看视频。熟练了以后参加几个比赛CCF的...原创 2018-05-18 17:21:34 · 251 阅读 · 0 评论 -
深度学习--神经网络基础篇
转自我的简书1转自我的简书2原创 2018-05-18 17:23:27 · 2289 阅读 · 0 评论 -
研究生初学机器学习的几点建议
通过我自己的这大半年的接触和了解,结合找工作需要现对于如何入门机器学习提几点自己的看法。如果你以后要想干算法工程师、机器学习工程师,数据挖掘工程师。那么请你好好看一下我下面说的话。============================================================================总路线 先学机器学习,再学深度...原创 2018-05-18 17:51:41 · 9081 阅读 · 5 评论 -
机器学习--LGB模型学习
转自我的简书原创 2018-05-16 16:23:12 · 37297 阅读 · 1 评论 -
机器学习--模型比较篇
1.bagging & boosting1)样本选择上:Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。而权值是根据上一轮的分类结果进行调整。2)样例权重:Bagging:使用均匀取样,每个样例的权重相等Boosting:根据错误率不断调整样例的权值,错误率越大则权重...转载 2018-05-16 16:31:01 · 562 阅读 · 0 评论 -
神经网络的诸多问题
1.激活函数简介2.为什么sigmoid容易出现梯度消失原创 2019-02-24 16:59:12 · 537 阅读 · 1 评论 -
有监督算法
1.逻辑回归转载 2019-05-08 15:36:50 · 1637 阅读 · 0 评论 -
Stacking结构介绍+代码实现
stacking是这两年打数据比赛被人熟知的方法,看了几篇,感觉有几个写的不错。1.介绍篇:https://blog.csdn.net/wstcjf/article/details/779899632.代码篇:https://blog.csdn.net/WxyangID/article/details/80205075https://blog.csdn.net/shine199...原创 2019-10-09 11:11:09 · 2375 阅读 · 0 评论