知识体系 - 机器学习梳理

下面是我收藏的一些不错的学习资料

1、逻辑回归(Logistic Regression)

逻辑回归计算过程的推导、并行化的实现:https://blog.csdn.net/ligang_csdn/article/details/53838743

逻辑回归的常见面试点:https://www.cnblogs.com/ModifyRong/p/7739955.html

达观数据对逻辑回归的一些总结:https://zhuanlan.zhihu.com/p/79014680

2、朴素贝叶斯

朴素贝叶斯学习笔记:https://blog.csdn.net/qll125596718/article/details/8445217

3、感知机

感知机perceptron:https://blog.csdn.net/dream_angel_z/article/details/48915561

4、支持向量机(SVM)

理解SVM的三层境界:https://blog.csdn.net/v_july_v/article/details/7624837

Scikit-learn实例之理解SVM正则化系数C:https://blog.csdn.net/mingtian715/article/details/54574700

5、决策树

ID3、C4.5、CART、随机森林:https://www.2cto.com/kf/201605/509184.html

浅谈随机森林的几个tricks:https://zhuanlan.zhihu.com/p/29408863

6、GBDT

GBDT算法原理深入理解:https://blog.csdn.net/yangxudong/article/details/53872141

GBDT算法的特征重要度计算:https://blog.csdn.net/yangxudong/article/details/53899260

7、XGBoost

XGBoost入门介绍:https://segmentfault.com/a/1190000010301082

通俗、有逻辑地说下XGBoost的原理:https://blog.csdn.net/github_38414650/article/details/76061893

RF、GBDT、XGBoost面试级整理:https://blog.csdn.net/qq_28031525/article/details/70207918

XGBoost缺失值引发的问题及深度分析:https://tech.meituan.com/2019/08/15/problems-caused-by-missing-xgboost-values-and-their-in-depth-analysis.html

8、LightGBM

lightgbm中文文档:https://lightgbm.apachecn.org/#/

如何通俗理解LightGBM:http://www.julyedu.com/question/big/kp_id/23/ques_id/2908

比XGBoost更快–LightGBM介绍:https://zhuanlan.zhihu.com/p/25308051

LightGBM基本原理介绍:https://blog.csdn.net/qq_24519677/article/details/82811215

LightGBM如何调参:https://www.jianshu.com/p/b4ac0596e5ef

LightGBM调参方法(具体操作):https://www.cnblogs.com/bjwu/p/9307344.html

GBDT、XGBoost、LightGBM的区别和联系:https://www.jianshu.com/p/765efe2b951a

从XGB到LGB:美团外卖树模型的迭代之路:https://t.cj.sina.com.cn/articles/view/5901272611/15fbe462301900n684

9、PCA

PCA原理总结:https://www.cnblogs.com/pinard/p/6239403.html

PCA原理详解:https://blog.csdn.net/zhongkelee/article/details/44064401

t-SNE完整笔记:http://www.datakit.cn/blog/2017/02/05/t_sne_full.html

10、K-means

K-means最优K值的选取:https://blog.csdn.net/qq_15738501/article/details/79036255

EM算法的收敛性与K-means算法的收敛性:https://blog.csdn.net/u010161630/article/details/52585764

11、EM算法

如何感性地理解EM算法:https://www.jianshu.com/p/1121509ac1dc

人人都懂EM算法:https://zhuanlan.zhihu.com/p/36331115

12、FM

FM的理解与实践:https://zhuanlan.zhihu.com/p/50426292

FM推荐算法原理:https://www.cnblogs.com/pinard/p/6370127.html

FM:https://blog.csdn.net/google19890102/article/details/45532745

13、梯度下降法

梯度下降、牛顿法、拟牛顿法:https://blog.csdn.net/a819825294/article/details/52172463

BGD、SGD、MBGD:https://www.cnblogs.com/maybe2030/p/5089753.html

优化方法总结:https://blog.csdn.net/u010089444/article/details/76725843

深度学习最全优化方法总结:https://zhuanlan.zhihu.com/p/22252270

14、正则化

归一化、标准化、正则化的关系:https://blog.csdn.net/zyf89531/article/details/45922151

L0、L1、L2范数:https://blog.csdn.net/zouxy09/article/details/24971995

深入理解L1、L2正则化:https://zhuanlan.zhihu.com/p/29360425

15、样本不均衡

训练集类别不均衡问题的处理:https://blog.csdn.net/heyongluoyao8/article/details/49408131

欠采样和过采样:https://www.zhihu.com/question/269698662

Focal Loss理解:https://www.cnblogs.com/king-lps/p/9497836.html

16、特征工程

特征工程之特征选择:https://www.cnblogs.com/pinard/p/9032759.html

特征选择:卡方检验、F检验和互信息:https://www.cnblogs.com/massquantity/p/10486904.html

几种常用的特征选择方法:https://blog.csdn.net/LY_ysys629/article/details/53641569

17、模型集成

Bootstrip、Bagging、Boosting:https://blog.csdn.net/MrLevo520/article/details/53189615

模型融合:https://blog.csdn.net/shine19930820/article/details/75209021

kaggle 模型融合(stacking)心得:https://zhuanlan.zhihu.com/p/26890738

18、kaggle

kaggle比赛的一些小套路:https://blog.csdn.net/pearl8899/article/details/82145480

kaggle入门:https://blog.csdn.net/u012162613/article/details/41929171

如何在kaggle首站进入前10%:https://dnc1994.com/2016/04/rank-10-percent-in-first-kaggle-competition/

kaggle中的kernel入门:https://blog.csdn.net/IAMoldpan/article/details/88852032

19、其它

机器学习常见评价指标:https://blog.csdn.net/zhihua_oba/article/details/78677469

常见损失函数:https://blog.csdn.net/weixin_37933986/article/details/68488339

偏差、误差、方差的区别与联系:https://www.zhihu.com/question/27068705

如何选取超参数:https://blog.csdn.net/u012162613/article/details/44265967

最小二乘法小结:https://www.cnblogs.com/pinard/p/5976811.html

拉普拉斯平滑处理:https://blog.csdn.net/daijiguo/article/details/52222683

穿越问题:https://blog.csdn.net/phrmgb/article/details/79997057

数据增强:https://zhuanlan.zhihu.com/p/41679153

协同过滤:https://blog.csdn.net/yimingsilence/article/details/54934302

AI笔面试题库:https://www.julyedu.com/question/topic_list/23

……

其它书籍:机器学习的其它相关书籍,我涉猎过的不多,有《美团机器学习实践》、《百面机器学习》、PRML。这里强烈推荐葫芦书《百面机器学习》,可以作为自己机器学习知识点查缺补漏的经典书籍。
————————————————
版权声明:本文为CSDN博主「PaniniGu」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/gjh13/article/details/103044794

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值