机器学习过程中看过的一些好文章

说明
1. 作为学习的记录会一直进行下去,也方便自己日后再来查看。
2. 如果链接失效,大家可以根据文章名称进行搜索。
3. 每个链接只是博客的一篇文章,进入博客作者的首页一般会有他写的更多优秀文章。

基础数学知识

数学之美番外篇:平凡而又神奇的贝叶斯方法:http://mindhacks.cn/2008/09/21/the-magical-bayesian-method/
贝叶斯、概率分布与机器学习:http://www.cnblogs.com/LeftNotEasy/archive/2010/09/27/1837163.html
机器学习(一) —— 浅谈贝叶斯和MCMC:http://www.xuyankun.cn/2017/05/13/bayes/
非叫“秩”不可,有秩才有解:http://blog.sina.com.cn/s/blog_8e7bc4f801012c23.html
机器学习中的数学(2)-线性回归,偏差、方差权衡 (文章中包括最小二乘法与最大似然):http://www.cnblogs.com/LeftNotEasy/archive/2010/12/19/mathmatic_in_machine_learning_2_regression_and_bias_variance_trade_off.html 推荐作者其他文章
机器学习中的Bias(偏差),Error(误差),和Variance(方差)有什么区别和联系?:https://www.zhihu.com/question/27068705/answer/137487142
最小二乘法:https://zh.wikipedia.org/zh-cn/%E6%9C%80%E5%B0%8F%E4%BA%8C%E4%B9%98%E6%B3%95
拉格朗日乘数:https://zh.wikipedia.org/wiki/%E6%8B%89%E6%A0%BC%E6%9C%97%E6%97%A5%E4%B9%98%E6%95%B0
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件:http://blog.csdn.net/xianlingmao/article/details/7919597
统计学习笔记(1)——统计学习方法概论:http://blog.csdn.net/qll125596718/article/details/8351337 推荐作者其他文章
VC维的来龙去脉: http://www.flickering.cn/machine_learning/2015/04/vc%E7%BB%B4%E7%9A%84%E6%9D%A5%E9%BE%99%E5%8E%BB%E8%84%89/

算法

【十大经典数据挖掘算法】:http://www.cnblogs.com/en-heng/p/5013995.html

梯度下降

方向导数与梯度:http://blog.csdn.net/zhulf0804/article/details/52238435

LR

【机器学习笔记1】Logistic回归总结:http://blog.chinaunix.net/xmlrpc.php?r=blog/article&uid=9162199&id=4223505
【机器学习算法系列之二】浅析Logistic Regression:https://chenrudan.github.io/blog/2016/01/09/logisticregression.html#3.1
机器学习系列(2)_从初等数学视角解读逻辑回归:http://blog.csdn.net/han_xiaoyang/article/details/49332321
Logistic Regression(逻辑回归)原理及公式推导:http://blog.csdn.net/programmer_wei/article/details/52072939

集成算法

机器学习中的数学(3)-模型组合(Model Combining)之Boosting与Gradient Boosting:http://www.cnblogs.com/LeftNotEasy/archive/2011/01/02/machine-learning-boosting-and-gradient-boosting.html
Adaboost 算法的原理与推导:http://blog.csdn.net/v_july_v/article/details/40718799
Boosting、Adaboost算法简介:http://www.bijishequ.com/detail/502130?p=
Adaboost算法原理分析和实例+代码(简明易懂):http://blog.csdn.net/guyuealian/article/details/70995333
GBDT算法原理深入解析:https://www.zybuluo.com/yxd/note/611571
机器学习中的算法(1)-决策树模型组合之随机森林与GBDT:http://www.cnblogs.com/LeftNotEasy/archive/2011/03/07/random-forest-and-gbdt.html
【机器学习】决策树(上、下)——从原理到算法实现:http://blog.csdn.net/HerosOfEarth/article/details/52347820 http://blog.csdn.net/HerosOfEarth/article/details/52425952推荐作者其他文章
随机森林算法:http://blog.csdn.net/zrjdds/article/details/50133843
【机器学习】模型融合方法概述:https://zhuanlan.zhihu.com/p/25836678
理解《Deep Forest: Towards An Alternative to Deep Neural Network》: http://blog.csdn.net/Virtual_Func/article/details/60466788?locationNum=5&fps=1

SVM

支持向量机通俗导论(理解SVM的三层境界):http://blog.csdn.net/v_july_v/article/details/7624837
优化问题详解,凸优化——基本概念:http://www.hanlongfei.com/%E5%87%B8%E4%BC%98%E5%8C%96/2015/05/20/convexoptimization/
简易解说拉格朗日对偶(Lagrange duality):http://www.cnblogs.com/90zeng/p/Lagrange_duality.html

xgboost

机器学习系列(12)_XGBoost参数调优完全指南(附Python代码):http://blog.csdn.net/han_xiaoyang/article/details/52665396
机器学习系列(11)_Python中Gradient Boosting Machine(GBM)调参方法详解:http://blog.csdn.net/han_xiaoyang/article/details/52663170
XGBoost 与 Boosted Tree(作者PPT中文解释) : http://www.52cs.org/?p=429
xgboost入门与实战(原理篇): http://blog.csdn.net/sb19931201/article/details/52557382

深度学习

深度学习网络大杀器之Dropout——深入解析Dropout:https://yq.aliyun.com/articles/68901
深度学习与计算机视觉系列(5)_反向传播与它的直观理解:http://blog.csdn.net/han_xiaoyang/article/details/50321873

实际项目操作

特征工程

使用sklearn做单机特征工程https://www.zhihu.com/question/29316149
使用sklearn进行数据挖掘:http://www.cnblogs.com/jasonfreak/p/5448462.html
机器学习之特征工程 :http://www.csuldw.com/2015/10/24/2015-10-24%20feature%20engineering/
优雅高效地数据挖掘:基于Python的sklearn_pandas库:http://www.cbdio.com/BigData/2016-08/31/content_5227769.htm
优雅高效地数据挖掘:基于Python的sklearn_pandas库:http://www.cbdio.com/BigData/2016-08/31/content_5227769.htm
[scikit-learn] 特征二值化编码函数的一些坑:https://ask.hellobi.com/blog/DataMiner/4897

评估指标

Confusion matrix混淆矩阵:https://en.wikipedia.org/wiki/Confusion_matrix
ROC和AUC介绍以及如何计算AUC:http://alexkong.net/2013/06/introduction-to-auc-and-roc/

kaggle

逻辑回归应用之Kaggle泰坦尼克之灾 : http://blog.csdn.net/han_xiaoyang/article/details/49797143
Kaggle入门,看这一篇就够了 : https://zhuanlan.zhihu.com/p/25686876
机器学习(二) 如何做到Kaggle排名前2%:http://www.jasongj.com/ml/classification/
数据挖掘比赛通用框架:https://ask.hellobi.com/blog/DataMiner/4880
Approaching (Almost) Any Machine Learning Problem:http://blog.kaggle.com/2016/07/21/approaching-almost-any-machine-learning-problem-abhishek-thakur/

调参

机器学习各种算法怎么调参?:https://www.zhihu.com/question/34470160?sort=created

使用sklearn进行集成学习——实践:http://www.cnblogs.com/jasonfreak/p/5720137.html

模型上线

PMML

PMML模型文件在机器学习的实践经验:http://blog.csdn.net/hopeztm/article/details/78321700

编程技巧

面试相关

谷歌微软等科技巨头数据科学面试107道真题:你能答出多少?:https://zhuanlan.zhihu.com/p/25860706
社招面试总结:http://www.cnblogs.com/qwj-sysu/p/6580769.html
【数据挖掘面经】腾讯+百度+华为(均拿到sp offer):https://www.nowcoder.com/discuss/15168
剑指offer:https://www.nowcoder.com/ta/coding-interviews?query=&asc=true&order=&page=3

网站

http://www.52cs.org/
http://wepon.me/
牛客网 面试学习:https://www.nowcoder.com/

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值