机器学习面试知识点&面试题&好文汇总

线性回归 & 逻辑回归

【机器学习】逻辑回归

支持向量机

【机器学习】支持向量机 SVM

树模型

【机器学习】决策树(上)——ID3、C4.5、CART
【机器学习】决策树(中)——Random Forest、Adaboost、GBDT
【机器学习】决策树(下)——XGBoost、LightGBM
随机森林(Random Forest)面试高频题
GBDT(Gradient Boosting Decision Tree)面试高频题
2022.03.08更新:Microstrong–梯度提升(Gradient Boosting)算法

RNN&LSTM

手把手教你构建一个LSTM时序网络
2022.03.29更新:RNN和LSTM详解

Attention & Transformer

深度学习之图像分类(十七)-- Transformer中Self-Attention以及Multi-Head Attention详解
2022.04.18更新:面试准备 transformer及各种周边

AutoEncoder

2022.03.24更新:AutoEncoder: 稀疏自动编码器 Sparse_AutoEncoder

K-means

【机器学习】K-means
KMeans 算法
K-means算法 面试高频题

主成分分析

【机器学习】降维——PCA
2022.04.03更新:Probabilistic PCA and Factor Analysis

GNN

2022.03.22更新:A Gentle Introduction to Graph Neural Networks
2022.03.31更新:Understanding Convolutions on Graphs

正则化

一文看懂机器学习中的正则化(Regularization)
L1正则化与L2正则化
机器学习中正则化项L1和L2的直观理解
从贝叶斯的角度来看,正则化等价于对模型参数引入先验分布:
LR正则化与数据先验分布的关系?
L1、L2正则化详解

数据规范化(BN/LN)

【DL】数据规范化:你确定了解我吗?
2022.03.23更新:BATCH NORMALIZATION 超详细解读
2022.03.29更新:Internal Covariate Shift与Normalization

集成学习

集成学习(Ensemble learning)面试高频题
深入理解XGBoost
深入理解LightGBM
深入理解CatBoost
2022.01.16更新:Boostrap详解和延伸
2022.03.08更新:面试准备 集成学习和tree

数据初始化

【DL】参数初始化:你真的了解我吗?

优化器

2022.1.18更新:批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解
2022.3.28更新:深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)

样本类别不平衡问题

2022.04.21更新:机器学习之类别不平衡问题 (3) —— 采样方法

数学基础

2022.03.08更新:理解期望、方差常见公式
2022.03.10更新:如何理解拉格朗日乘子法和KKT条件?

优秀博客/合集

阿药算法
2022.03.29更新:马同学

番外篇:智力题

2022.03.31更新:面试中常见的智力题

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值