Andrew Ng Machine Learning 专题【Logistic Regression & Regularization】

此文是斯坦福大学,机器学习界 superstar — Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记。力求简洁,仅代表本人观点,不足之处希望大家探讨。
课程网址:https://www.coursera.org/learn/machine-learning/home/welcome

Week 2:Linear Regression with Multiple Variables笔记:http://blog.csdn.net/ironyoung/article/details/47129523

Week 3:Logistic Regression & Regularization

  1. Logistic Regression

    1. 对于分类问题而言,很容易想到利用线性回归方法,拟合之后的 h θ (x)>0.5  则为True,其余为False.
    2. 但是线性回归有一个问题,拟合出的值都是离散的,范围不确定。为了方便分析,我们希望将拟合出的值限制在0~1之间。因此,出现了逻辑回归。
    3. 逻辑回归的模型是一个非线性模型:sigmoid函数,又称逻辑回归函数。但它本质上又是一个线性回归模型,因为除去sigmoid映射函数关系,其他的步骤,算法都是线性回归的。
    4. sigmoid函数(或,逻辑回归函数): g(z)=1/(1+e z )  。其函数图像为:
      这里写图片描述
      这个函数的特征非常明显
      • 函数值一直在0~1范围内;
      • 经过 (0,0.5)  点。这个很容易作为区分0,1类的分界线。
    5. 逻辑回归中,对于原本线性回归中拟合而成的hypothesis函数,需要经过sigmoid函数的修饰: h θ (x)=θ T xh θ (x)=g(θ T x) 
      此时, h θ (x)  的含义发生了变化, h θ (x)=P(y=1|x;θ)  。成为
      • ”the probability that y=1, given x, parameterized by θ 
      • 因此有, P(y=0|x;θ)+P(y=1|x;θ)=1 
    6. Decision Boundary。表示的是 hypothesis 函数确定之后,划分数据分类的界限,并不一定可以百分百区分数据集,只是函数的属性之一。下图蓝色曲线即为某个 Desicision Boundary。
      Drawing
  2. Cost Function

    1. 回忆线性回归的 cost function,我们在其中插入 cost 函数的概念: J(θ 0 ,θ 1 )=12m  i=1 m (h θ (x (i) )y (i) ) 2 =1m  i=1 m cost(h θ (x (i) ),y (i) )=1m  i=1 m cost(

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值