手推 逻辑回归(logistic regression)

本文详细介绍了逻辑回归的原理,包括构造hypothesis假设函数、损失函数(直接构造与极大似然构造)、梯度下降优化过程以及正则化。重点探讨了为何选择sigmoid函数,并解释了为何不使用均方差作为损失函数的原因。
摘要由CSDN通过智能技术生成

logistic 回归

#TOC

一、构造hypothesis假设函数

Logistic Regression 可以看做是一个 线性回归(Linear Regression) 经过一个sigmod激活函数 的结果。
线性回归方程:$ \theta_0 + \theta_1x_1+ \theta_2x_2+…+ \theta_n*n_n = \theta^T * x$
sigmoid函数: g ( z ) = 1 1 + e − z g(z) = \frac{1}{1+e^{-z}} g(z)=1+ez1
所以hypothesis 函数 h θ ( x ) = 1 1 + e − θ T x h_\theta (x) = \frac {1}{1+e^{-\theta^Tx}} hθ(x)=1+eθTx1
h θ ( x ) h_\theta (x) hθ(x)表示为样本预测正例的概率
即:
KaTeX parse error: No such environment: equation at position 9: \begin{̲e̲q̲u̲a̲t̲i̲o̲n̲}̲ \left\{ \begin…

CSDN无法解析的公式

可以将公式(1)合并成:
(2) P ( y ∣ x ; θ ) = h θ ( x ( i ) ) y ( i ) ( 1 − h θ ( x ( i ) ) ) 1 − y ( i ) P(y|x;\theta) = h_\theta(x^{(i)})^{y^{(i)}} (1-h_\theta(x^{(i)}))^{1- y^{(i)}} \tag{2} P(yx;θ)=hθ(x(i))y(i)(1hθ(x(i)))1y(i)(2)

二、构造损失函数

下面介绍两种不同的构造假设函数的方法:
第一种是来源于NG的机器学习课程;
第二种是以概率的方式通过极大似然来构造代价函数

直接构造损失函数

构造代价函数:
KaTeX parse error: No such environment: equation at position 23: …heta) = \begin{̲e̲q̲u̲a̲t̲i̲o̲n̲}̲ \left\{ \begin…
[外链图片转存失败(img-NybE3yxJ-1565846168527)(media/15655785068654/15657637829206.jpg)]
如图一:
当y = 1,
若假设函数预测结果为1。 则代价函数为0;
当假设函数预测结果越接近0时,其代价就越大。
当 y = 0时同理
将两式化归一起:
C o s t ( θ ) = − 1 m ∑ i = 1 m y ( i ) l o g h θ ( x ) + ( 1 − y ( i ) ) l o g 1 − h θ ( x ) Cost(\theta) = -\frac1m\sum_{i=1}^m y^{(i)}log^{h_\theta(x)} + (1-y^{(i)})log^{1 - h_\theta(x)} Cost(θ)=m1i=1my(i)loghθ(x)+(1y(i))log1hθ(x)

使用概率知识,通过极大似然构造损失函数

优化的目标是是的 P ( y ∣ x ; θ ) P(y|x;\theta) P(yx;θ)的预测值最接近观测值。即使得:
∏ i = 1 m P ( y i ∣ x ; θ ) \prod_{i = 1}^m P(y_i|x;\theta) i=1m<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值