常见机器学习文章大全 前言一、线性回归二、逻辑回归三、SVM四、决策树五、随机森林六、提升树七、GBDT八、XGBoost九、KNN十、K-means十一、贝叶斯十二、LDA和PCA十三、其他 前言 收藏一下各个模型写得比较好的文章,到时候通过这个入口方便查看 一、线性回归 机器学习算法——线性回归(超级详细且通俗)线性回归相关面试题 二、逻辑回归 逻辑回归 - 理论篇逻辑回归和神经网络权重初始化为0的问题逻辑回归(logistics regression) 三、SVM 【ML】支持向量机(SVM)从入门到放弃再到掌握深入理解SVM—从头到尾详细推导(软硬间隔、KKT条件、核技巧)SVM的常见面试点总结SVM通俗详解支持向量机通俗导论(理解SVM的三层境界) 四、决策树 决策树(Decision Tree)决策树梳理决策树从原理简述到面试详细总结Regression Tree 回归树 五、随机森林 随机森林算法及其实现(Random Forest) 六、提升树 深入理解提升树(Boosting tree)算法 七、GBDT GBDT算法原理以及实例理解深入理解GBDT回归算法 八、XGBoost 通俗理解kaggle比赛大杀器xgboost珍藏版 | 20道XGBoost面试题 九、KNN 机器学习面试题之KNN 十、K-means K-Means(聚类)k-means常见面试题 十一、贝叶斯 通俗易懂的贝叶斯定理朴素贝叶斯分类:原理隐马尔可夫链 一起看着玩 十二、LDA和PCA 主成分分析(PCA)和线性判别分析(LDA)原理简介PCA和LDA以及之间的区别 十三、其他 L1、L2正则化梯度消失和梯度爆炸过拟合与欠拟合Loss异常特征怎么离散化?为什么需要离散化?常见分布总结-高斯分布、伯努利分布、泊松分布、几何分布、beta分布方差和偏差的区别深入理解L0,L1和L2正则化【通俗易懂】机器学习中 L1 和 L2 正则化的直观解释交叉熵损失函数原理详解机器学习面试中常问到的算法问题1----L1正则化与L2正则化的区别以及为什么L1正则化可以产生稀疏矩阵,L2正则化可以防止过拟合**手推公式带你轻松理解L1/L2正则化交叉熵代价函数(作用及公式推导)过拟合和欠拟合原因及其解决方法