logistic线性回归

这是一个监督学习的学习算法
Given:x(输入特征向量)      want      y ^ \hat y y^=P(y=1|x)
Parameters: x, w∈ R n x R^{n_x} Rnx       b∈ R R R
Output:   y ^ \hat y y^= w T w^T wT+b

因为你希望 y ^ \hat y y^=1,所以 y ^ \hat y y^应该介于0和1之间,因为这是一个二分类的情况
因此我们引入sigmoid函数: σ \sigma σ(z)= 1 1 + e − z \frac{1}{1+e^{-z}} 1+ez1
在这里插入图片描述
于是输出变成   y ^ \hat y y^= σ \sigma σ( w T w^T wT+b)
为了训练logistic回归模型的参数w以及b需要定义一个cost函数
对于单个样本来说,定义的损失函数为或者是误差函数:L( y ^ \hat y y^,y)=-(y log ⁡ y ^ \log^{\hat y} logy^+(1-y) log ⁡ 1 − y ^ \log^{1-\hat y} log1y^)
它们可以用来衡量算法的运行情况,即衡量预测输出值 y ^ \hat y y^和y的实际值有多接近。
对于m个样本而言,cost函数即为:
J(w , b)= 1 m \frac{1}{m} m1 ∑ i = 1 m L ( y ^ ( i ) , y ( i ) ) \displaystyle\sum_{i=1}^{m} L(\hat y^{(i)},y^{(i)}) i=1mL(y^(i),y(i))
            =- 1 m \frac{1}{m} m1 ∑ i = 1 m [ y ( i ) log ⁡ y ^ ( i ) + ( 1 − y ( i ) ) log ⁡ 1 − y ^ ( i ) ] \displaystyle\sum_{i=1}^{m} [y^{(i)}\log^{\hat y^{(i)}}+(1-y^{(i)})\log^{1-\hat y^{(i)}}] i=1m[y(i)logy^(i)+(1y(i))log1y^(i)]

可能很多人搞不清楚loss函数与cost函数之间的区别
loss函数只适用于单个训练样本
cost函数基于参数的总代价
可能内容不太紧凑扎实,后续会继续改进的

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值