在了解了Logistic回归模型、损失函数、成本函数之后,可以利用梯度下降法,来训练或学习训练集上的参数
w
和
Logistic 回归算法:
y^(i)=σ(wTx(i)+b),其中σ(z(i))=11+e−x(i) ,其中 x(i) 为第i个训练样本
成本函数:
J(w,b)=1m∑mi=1L(y^(i),y(i))=−1m∑mi=1y(i)[log(y^(i))+(1−y(i))log(1−y^(i)))]
成本函数衡量了参数
w
和
梯度下降法:
下图中的横轴表示空间参数
w
和
我们希望找到点
(w,b)
,使其对应的成本函数
J
值为最小值。可以看到,成本函数
起先,用某初始值初始化
w
和
对
J(w,b)
实际进行参数更新时,每次梯度下降循环将对
w
和
w:=w−α∂J(w,b)∂w
b:=b−α∂J(w,b)∂b