从17年初第一次接触接触机器学习,至今已有两年多,现在将自己会的部分,记录如下:
1. 线性回归和逻辑回归
核心思路:代价函数最小化
方法:最小二乘法(Linear Regression ) 梯度下降法 牛顿法
2. 主成分分析
核心思路:数据降维,保留重要特征
方法: 通过中心化和求解协方差矩阵的特征向量,得到降维后结果
我的blog:从头实现主成分分析(PCA)--Python
3. 神经网络(Deep Learning)
思路,方法 均自己实现,调用tensorflow实现 (NN, CNN, lstm)
4. 支持向量机 (SVM)
5. 线性判决器(LDA)
6. xgboost 与 gbdt:机器学习算法大杀器
网页链接:xgboost参数设置 还需要好好钻研xgb的原理