南瓜书第三章(2) 对数几率回归

本文探讨了对数几率回归算法在机器学习中的应用,包括其基于线性模型的分类功能、使用极大似然估计和梯度下降/牛顿法优化的策略,以及信息论视角下的损失函数推导,特别是最小化交叉熵的概念。
摘要由CSDN通过智能技术生成

对数几率回归算法的机器学习三要素:

  • 1.模型:线性模型,输出值的范国为(0,1],近似阶跃的单调可微函数
  • 2. 策略:极大似然估计,信息论
  • 3.算法:梯度下降,牛顿法

1、算法原理

线性模型的基础上套一个映射函数来实现分类功能

部分文献也称作逻辑回归(是logistic的音译,与原意有较大出入),虽然名字中含有回归,但其实是一种分类算法。找一个单调可微函数将分类任务中的真实标记与线性回归模型的预测值联系起来,是一种广义线性回归

    对数几率函数取值是在[0,1]之间,并非逻辑性的“非0即1”

选用这个“替代函数”的好处:

  • 无需事先假设数据分布 
  • 可得到 “类别”的近似概率预测 
  • 可直接应用现有数值优化算法求取最优解

2、损失函数的极大似然估计推导

由于此函数是非凸函数,故偏导数等于零并不能等价于极值点,故不能用最小二乘法进行求解

3、损失函数的信息论推导

(1)信息论(一门现代化学科)

     以概率论、随机过程为基本研究工具,研究广义通信系统的整个过程。常见的应用有无损数据压缩(如ZIP文件)、有损数据压缩(如MP3和JPEG)等。

几个重要概念:

  •   从机器学习三要素中“策略"的角度来说,与理想分布最接近的模拟分布即为最优分布,因此可以通过最小化相对熵(即最小化模拟分布和理想分布之间的差异)这个策略来求出最优分布。
  •   由于理想分布是未知但固定的分布(频率学派的角度),所以相对熵前面一部分为常量,那么最小化相对熵就等价于最小化交叉熵

  • 9
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值