欢迎点击作者原文地址
所有公式速查
注意:所有的公式优先以向量的形式表示,其中
θ=(θ0,θ1,...,θn)T
X=⎡⎣⎢⎢⎢⎢⎢⋯(x(1))T⋯⋯(x(2))T⋯⋮⋯(x(n))T⋯⎤⎦⎥⎥⎥⎥⎥
x(i)=(x(i)0,x(i)1,...,x(i)n)T
∀x(i)0=0
这里的X并不是一个列向量,所以不能直接使用
θTX
来表示
hθ(x)
———————– | Linear Regression | Logistic Regreesion | Neural Network |
---|---|---|---|
Hypothesis
hθ(x)
|
hθ(x)=Xθ
|
hθ(x)=g(Xθ)=11+e−Xθ
|
hθ(x)
|
Cost Function
J(θ)
|
12m(Xθ−Y)T(Xθ−Y)=12m∑i=1m(hθ(x(i))−y(i))2
|
−1m[YTlog(Xθ)+(1−Y)Tlog(1−Xθ)]=−1m[∑i=1my(i)loghθ(x(i))−(1−y(i))log(1−hθ(x(i)))2]
| WAIT TO FUIFILL |
Regularized Cost Function
Jλ(θ)
|
J(θ)+λ2m∑j=1mθ2j
|
J(θ)+λ2m(θTθ−θ20)
| WAIT TO FUIFILL |
Parameters
θj=θj−α∂J(θ)∂θj
|
θ=θ−αmXT(Xθ−Y)
———————–
θ=(XTX)−1XTY
|
θ=θ−αmXT(g(Xθ)−Y)
| WAIT TO FUILFILL |
Penalized Parameters
θλ
|
θ0:=θ0−α1m∑i=1m(hθ(x(i))−y(i))2x(i)0
θj:==θj(1−αλm)−α1m∑i=1m(hθ(x(i))−y(i))2x(i) (j=1,2,3,...,n)
——————————–
θ=⎛⎝⎜⎜⎜⎜⎜XTX+λ⎡⎣⎢⎢⎢⎢⎢01⋱1⎤⎦⎥⎥⎥⎥⎥⎞⎠⎟⎟⎟⎟⎟−1XTy
| Same as the Left Upper One( Linear Regression Gradient Descent) | WAITE TO FULFILL |
、、