吴恩达机器学习之logistic回归

logistic回归,是一种广义的线性回归分析模型,一般用于分类。与侠义的线性回归相比,模型形式基本上相同,都具有 w‘x+b,其中w和b是待求参数。区别是因变量不同,后者直接将w‘x+b作为因变量,即y =w‘x+b,而logistic回归则通过函数L将w‘x+b对应一个隐状态p,p =L(w‘x+b),然后根据p 与1-p的大小决定因变量的值。如果L是logistic函数,就是logistic回归,如果L是多项式函数就是多项式回归。下面以二分类函数为例,简单说明假设函数与代价函数。
1.假设函数(二分类)
函数L取Sigmoid函数,则假设函数如下:
在这里插入图片描述
其中,z = thetaT*x。h(x),值域为0-1。
在这里插入图片描述
Sigmoid函数
2.代价函数
如果按照线性回归那样设计代价函数,则
在这里插入图片描述
由于h(x)是非凸函数,则J也是非凸函数,导致有许多局部最优值,而不是全局最优值。可以选择对数似然损失函数,其是凸函数。
逻辑回归似然函数(y取0或者1):
在这里插入图片描述
取对数,
在这里插入图片描述
我们的目标是求最大l(θ)时的θ,如上函数是一个上凸函数,可以使用梯度上升来求得最大似然函数值(最大值)。或者上式乘以-1,变成下凸函数,就可以使用梯度下降来求得最小负似然函数值(最小值):
在这里插入图片描述
代价函数曲线图如下:
在这里插入图片描述
在这里插入图片描述
3.高级优化
比如共轭梯度法等,不需要指定学习率,且当问题规模很大时,收敛速度比梯度下降快的多。因此,列出代价函数后,最好使用已有的高级算法库,求解未知参数。
4.多元分类
“一对多”。比如分为n类,两两设计独立的分类器,共Cn2个分类器,分别求解。当进行预测时,输入x,分别计算每个分类器预测的概率,概率最大的即为最终的分类结果

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值