目录
一、线性回归
最重要且常见的回归
假设:
机器学习当中往往伴随着假设
1.假设的内涵性:就是根据常理应该是正确的
2.假设的简化性:假设只是接近事实,往往需要做若干假设
3.假设的发散性:在某个简化的假设下推导得出的结论,不一定只有在假设成立时,结论才正确。
1.最小二乘法的本质
最小二乘法的推导
2.最小二乘法之正规方程-θ解析过程
加入λ扰动
3. L1正则化与L2正则化原理简述
-
线性回归正则化–>防止过拟合
目标函数:
-
L2正则化–>岭回归
作用:使θ中的每个元素都很小,接近于0,故目标函数增加平方喝损失–>类似条件极值
目标函数:
-
L1正则化–>LASSO–>特征选择–>稀疏性
目标函数增加绝对值喝损失
目标函数:
-
Elastic Net:
L1,有特征选择能力,但是性能不好
L2,没有特征选择能力,但是性能好
两者性能的补充,目标函数:
4.交叉验证
如:十折交叉验证
预设几种超参数组合,在训练集上得到模型。然后再验证数据上买魅族超参数都采用交叉验证来进行评估。最后选出最优参数组合简历模型。
广义逆矩阵与SVD
求伪逆后,直接乘y,就能得到θ
5.梯度下降算法
当特征较复杂时,正规方程求解过慢,此时,就需要梯度下降算法来求解
只能找到局部最小值
1)梯度方向
2)三种梯度下降算法
批量梯度下降法-BGD
贪心(greed)
随机梯度下降法SGD
折中:mini-batch SGD实际中用的最多,但是简称为SGD
R方
6.局部加权线性回归
二、Logistic回归-二分类
1.Logistic回归参数
2.线性模型GLM
3.对数线性模型
4.Logistic回归的损失函数