目录
线性回归 & 逻辑回归
支持向量机
树模型
【机器学习】决策树(上)——ID3、C4.5、CART
【机器学习】决策树(中)——Random Forest、Adaboost、GBDT
【机器学习】决策树(下)——XGBoost、LightGBM
随机森林(Random Forest)面试高频题
GBDT(Gradient Boosting Decision Tree)面试高频题
2022.03.08更新:Microstrong–梯度提升(Gradient Boosting)算法
RNN&LSTM
手把手教你构建一个LSTM时序网络
2022.03.29更新:RNN和LSTM详解
Attention & Transformer
深度学习之图像分类(十七)-- Transformer中Self-Attention以及Multi-Head Attention详解
2022.04.18更新:面试准备 transformer及各种周边
AutoEncoder
2022.03.24更新:AutoEncoder: 稀疏自动编码器 Sparse_AutoEncoder
K-means
【机器学习】K-means
KMeans 算法
K-means算法 面试高频题
主成分分析
【机器学习】降维——PCA
2022.04.03更新:Probabilistic PCA and Factor Analysis
GNN
2022.03.22更新:A Gentle Introduction to Graph Neural Networks
2022.03.31更新:Understanding Convolutions on Graphs
正则化
一文看懂机器学习中的正则化(Regularization)
L1正则化与L2正则化
机器学习中正则化项L1和L2的直观理解
从贝叶斯的角度来看,正则化等价于对模型参数引入先验分布:
LR正则化与数据先验分布的关系?
L1、L2正则化详解
数据规范化(BN/LN)
【DL】数据规范化:你确定了解我吗?
2022.03.23更新:BATCH NORMALIZATION 超详细解读
2022.03.29更新:Internal Covariate Shift与Normalization
集成学习
集成学习(Ensemble learning)面试高频题
深入理解XGBoost
深入理解LightGBM
深入理解CatBoost
2022.01.16更新:Boostrap详解和延伸
2022.03.08更新:面试准备 集成学习和tree
数据初始化
优化器
2022.1.18更新:批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解
2022.3.28更新:深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)
样本类别不平衡问题
2022.04.21更新:机器学习之类别不平衡问题 (3) —— 采样方法
数学基础
2022.03.08更新:理解期望、方差常见公式
2022.03.10更新:如何理解拉格朗日乘子法和KKT条件?
优秀博客/合集
番外篇:智力题
2022.03.31更新:面试中常见的智力题