1. 训练样本 (Training Set):
x1…xn, y
2. 回归函数:
hθ(x⃗ )=θ0+θ1x1+⋯+θjxj+⋯+θnxn
使 θ⃗ =⎡⎣⎢⎢θ0⋮θn⎤⎦⎥⎥, x⃗ =⎡⎣⎢⎢x0⋮xn⎤⎦⎥⎥ (x0=1),则 hθ(x⃗ )=x⃗ T×θ⃗
3. Cost函数:
J(θ⃗ )=12m∑i=1m(hθ(x(i))−y(i))2
进行正则化后,则为:
J(θ⃗ )=12m∑i=1m(hθ(x(i))−y(i))2+λ ∑j=1nθ2j
找到 θ⃗ 使 J(θ⃗ ) 值最小,以使 hθ(x⃗ ) 最接近 y 的两种方法:
1. 梯度下降法 (Gradient Descent):
若进行了正则化,则为:
Repeat { θ0:=θ0−α 1m ∑i=1m(hθ(x(i))−y(i))x(i)0 θj:=θj−α [(1m ∑i=1m(hθ(x(i))−y(i))x(i)j)+λmθj]} j∈{1,2...n}
2.Normal Equation:
θ⃗ =(XTX)−1XTy⃗
正则化,则:
θ=(XTX+λ⋅L)−1XTywhere L=⎡⎣⎢⎢⎢⎢⎢⎢⎢011⋱1⎤⎦⎥⎥⎥⎥⎥⎥⎥