机器学习的问题更多的对算法模型的优化,特征工程也属于对算法模型的优化,这一点在后面均有体现。
说明:本文是对部分机器学习的算法模型的思想进行抽取,不会出现详细的推导。
先看一下要掌握的算法有哪些,我个人觉得部分算法有点偏,不过应该是在某个领域里有应用而且效果很好,否则不会成为必掌握的算法。
线性回归
1、线性函数的表示:
f(x)=θ0x0+θ1x1+⋯+θnxn
向量形式:
f(x)=θ⃗ TX⃗
其中:
θ⃗ =(θ1;θ2;⋯θn)
当 Θ 确定后,模型就确定了,Θ = 0是可得截距项 b。
2、cost function,亦即最小二乘法估计:
J(θi)=12m∑i=1m(hθ(xi)−yi)2
记得前面说过的机器学习的大部分问题都是优化模型吗?开始,使用梯度下降优化代价函数,这也是线性回归算法思想的精髓。
θj:=θj−α∂∂θjJ(θ)
α 为学习率。
3、为防止过拟合,加入正则化:
J(θi)=argminθ12m⎡⎣⎢⎢∑i=1m(hθ(xi)−yi)2+λ∑j=1nθ2j⎤⎦⎥⎥
优点:易于理解,计算简单;
缺点:不能拟合非线性数据;
logistic回归
首先明确logistic回归不是回归,而是线性分类器。
1、logistic函数表达式为:
hθ(x)=g(θTx)=11+e−θTx
其中:
g(z)=11+e−z
经变形后得:
lnhθ1−hθ=θTx
2、logistic回归主要是通过极大似然来估计待求参数 Θ 的值,样本的后验概率为:
L(θ)=p(y⃗ ∣X;θ)=∏i=1mp(y(i)∣x(i);θ)
=∏i=1m(hθ(x(i)))y(i)(1−hθ(x(i)))1−y(i)
其中:
P(y=1∣x;θ)=hθ(x)
P(y=0∣x;θ)=1−hθ(x)
对该式取似然对数可得cost function:
J(θ)=−1m