机器学习笔记3:逻辑回归

机器学习笔记3:逻辑回归

Andrew Ng机器学习课程学习笔记3


逻辑回归就是分类问题,比如把邮件标示为垃圾邮件和正常邮件,判断肿瘤是良性的还是恶性的.

Sigmoid function
线性回归方程中,hθ(x) 的取值y是连续的,而逻辑回归中输出则是离散的。以两个类别为例,结果消极时y的取值为0,结果积极时y的取值为1。一般来说y不可能小于0,也不会大于1。为了适应这种特点,逻辑回归的方程是在线性回归方程hθ(x)的基础上增加了一个阈值函数Sigmoid function,将变量映射到0,1之间。
Sigmoid function,也可以说是Logistic function,其表达式为
g ( z ) = 1 1 + e − z g(z) = \dfrac{1}{1+e^{-z}} g(z)=1+ez1
在实数范围内时,其图像如下,是一个单调递增的S型函数。
Sigmoid function函数

回归方程:
h θ ( x ) = g ( θ T X ) h_θ(x) = g(θ^TX) hθ(x)=g(θTX)
g ( z ) = 1 1 + e − z g(z) = \dfrac{1}{1+e^{-z}} g(z)=1+ez1
由于g(z)是单调递增的,且g(0)=0.5。故θTX大于零时,回归方程的输出y=1, θTX小于零时,回归方程的输出y=0。预测y的取值(为0或1)等价于判断θTX与0之间的大小关系,θTX = 0 所代表的线就是Decision Boundary(决策边界)边界的一边是积极结果1,另一边是消极结果1。
另外,θTX = 0 可能是直线,也可能是曲线,这个取决于输入参数X的情况。

cost function:
  对于线性回归而言,代价函数是 J ( θ ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(θ) = \dfrac{1}{2m} \sum_{i=1}^{m}(h_θ(x^{(i)})-y^{(i)})^{2} J(θ)=

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值