机器学习笔记(11)---Logistic回归

这篇机器学习笔记介绍了Logistic回归的原理和应用,重点在于sigmoid函数及其在分类中的作用。通过梯度上升方法确定最佳回归系数,实现二分类。核心算法代码展示了权重的计算过程,预测函数classifyVector()基于sigmoid函数进行实现。
摘要由CSDN通过智能技术生成

前言

我记得刚学习机器学习不久的时候,去看吴恩达老师的机器学习视频,他的第二讲就是关于监督学习梯度下降相关的内容,梯度下降正是和今天讲的Logistic回归有关的,当时看那视频真心累,数学公式见一个不认识一个,看一讲视频要半个月。但是功夫不负有心人,经过一年多的打基础,现在终于可以比较容易的 看懂相关知识点了,现把《机器学习实践》第五章Logistic回归做一个学习笔记。

Logistic回归

利用Logistic回归进行分类的思想是:根据现有的样本数据对分类边界线建立回归公式,以此进行分类。此“回归”即表示最佳拟合,表示要找到最佳拟合参数集。训练分类器时的做法就是使用最优化算法寻找最佳拟合参数。

如果预测的是离散值,叫分类,比如流量报文是“正常报文”还是“异常报文”;如果预测的是连续的,叫回归。但是Logistic回归是个特殊的回归,实际上它是个离散的二分类算法。

Logistic回归其实记住sigmoid函数就知道怎么回事了。sigmoid函数公式如下

σ=11+ez σ = 1 1 + e − z

其特点是,当 z=0 z = 0 时,其值为0.5,随着z值的增加,对应的sigmoid值逼近于1;而随着z值的减小,sigmoid值将逼近于0。

那么sigmoid函数如何用呢?我们可以在每个特征上都乘以一个回归系数(或者叫权重),然后把所有的结果值相加,将这个总和代入sigmoid函数,从而得到一个0~1之间的数值,任何大于0.5的数据被分入1类,小于0.5的被分入0类。所以,Logistic回归也被看做是一种概率估计

分类器函数知道后,现在关注的就是回归系数是多少?这就引出了本书接下来要讲的两种方法:使用梯度上升随机梯度上升方法寻找最佳回归系数。另外还有一种方法本书没有介绍,叫正归方程,这个在吴恩达老师的视频及随课讲义中讲的很详细。

注:梯度上升和下降是同一概念,就差一个符号。

梯度上升公式:

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值