Classification and logistic regression

本文详细介绍了Logistic回归在0、1分类问题中的应用,包括手动设定迭代次数和使用fminunc函数求解。此外,还探讨了多元分类问题的one_vs_all策略,并通过实例展示了如何利用Newton迭代法改进分类器的收敛速度。最后,补充了正则化Logistic回归和前馈神经网络的相关内容。
摘要由CSDN通过智能技术生成

<网页blog已经上线,一大波干货即将来袭:https://faiculty.com/>

/* 版权声明:可以任意转载,转载时请务必标明文章原始出处和作者信息 .*/

faiculty: 机器学习、计算机视觉交流群:451429116  

微信公众号、知乎专栏、简书,请搜索: faiculty

本专栏主要为学习记录,可能综合了网上各类文章或博客,如有侵权请联系本人进行删除。  
QQ:769412850.

非常期待各位同学投稿,一起学习。

logistic 回归

1.问题:

在上面讨论回归问题时,讨论的结果都是连续类型,但如果要求做分类呢?即讨论结果为离散型的值。

2.解答:

  • 假设:这里写图片描述
    其中:这里写图片描述
    g(z) g ( z ) 的图形如下:
    这里写图片描述
    由此可知:当 hθ(x) h θ ( x ) <0.5时我们可以认为为0,反之为1,这样就变成离散型的数据了。

  • 推导迭代式:

    • 利用概率论进行推导,找出样本服从的分布类型,利用最大似然法求出相应的 θ θ
    • 这里写图片描述
    • 因此:这里写图片描述
      这里写图片描述
  • 结果:这里写图片描述

  • 注意:这里的迭代式增量迭代法

Newton迭代法:

1.问题:

上述迭代法,收敛速度很慢,在利用最大似然法求解的时候可以运用Newton迭代法,即 θ θ := θf(θ)f(θ) θ − f ( θ ) f ′ ( θ )

2.解答:

  • 推导:

    • Newton迭代法是求 θ θ ,且 f(θ)=0 f ( θ ) = 0 ,刚好: l(θ)=0 l ′ ( θ ) = 0
    • 所以可以将Newton迭代法改写成:这里写图片描述
  • 定义:

    • 其中:
  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值