斯坦福机器学习第三课——牛顿迭代法与广义线性模型(Generalized Linear Models)

本文介绍了牛顿迭代法作为求解最大似然估计的高效方法,对比了它与梯度下降法的优缺点。接着,深入探讨了广义线性模型,包括指数模型、广义线性模型的条件以及具体示例,如逻辑回归和Softmax回归,阐述它们如何作为特殊类型的广义线性模型。
摘要由CSDN通过智能技术生成

在进入正题之前,来讨论一下牛顿迭代法

和梯度求导法一样,牛顿迭代法也是一种求最大似然的ℓ(θ)的方法。其基本过程为:

1.找到曲线上横坐标x=0的点f(0)

2.对f(0)点做切线

3.切线和横坐标交于另外一点A1,再找到曲线上对应的点f(1)

4.对f(1)点做切线

5.依次重复以上过程,直到f(x)=0为止。

与梯度求导法相比,牛顿迭代法收敛速度快,迭代次数少。但是代价高,因为它要对N*N维矩阵计算。因此我们可以根据矩阵的维度选择不同方式的计算方法。当矩阵维度较少时,选择牛顿迭代法比更好。反之亦然。


广义线性模型(Generalized Linear Models)

首先让我们来看维基百科上的定义:

在统计学上,广义线性模型 (Generalized linear model) 是一种应用广泛的线性回归模式。此模式假设实验者所量测的随机变量的分布函数与实验中系统性效应(即非随机的效应)可经由链接函数(link function)建立起解释其相关性的函数。

这里的分布函数一般是指数模型中的一个函数,用人话来讲就是其分布于链接函数g(η)有一定关系。

指数模型

如果一个分布方式能够表示成一下方式便可以称作指数模型的一员。泊松分布、高斯分布、伯努利分布皆是。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值