【机器学习】第三章 线性模型

1.一元线性回归

损失函数:两种是等价的。

1.最小二乘法

要使得均方误差(square loss)最小。

2.极大似然估计

使得联合概率(也就是似然函数)最大。

前提假设:n个独立同分布样本。似然函数是它们的联合概率,要找一个θ使得L\left ( \theta \right )最大。

似然函数有连乘性,可以取对数。

求解参数的过程分两步:

1.证明目标函数是凸函数

这个先求海塞矩阵(就是多元函数二阶偏导的矩阵),证明这个矩阵是半正定的(就是顺序主子式非负),那么目标函数就是凸函数了。

2.用凸函数求最值的方法求解

令梯度(一阶偏导)=0即可。

2.多元线性回归

有一个维度扩充的步骤,就是d维的特征向量w,把b加d+1维,b改写成w{_{d+1}},便于矩阵运算。

3.对数几率回归

本质是在线性模型基础上加了一个映射函数,把R映射到[0,1],这样就可以用回归实现分类问题了。

这个映射函数一般是sigmoid函数:\frac{1}{1+e^{-z}}

损失函数可以用极大似然估计、交叉熵,求解用梯度下降、牛顿法。

前面的一元和多元线性回归有闭式解(closed form),但对数几率回归是没有的,只能近似求解。

此外,有的翻译成逻辑回归是不准确的。logistic和logic不是一个意思哦。

4.线性判别分析(LDA)

基本思想:同类样本方差尽量小,异类样本中心尽量远。

损失函数:J=\frac{w^{T}S_{b}w}{w^{T}S_{w}w}

S_b是类间散度矩阵(均值中心距离)

S_w是类内散度矩阵(同类样本方差)

w是样本投影的那条向量

由于模可以约掉,所以用拉格朗日乘子法求解时,w的取值无所谓。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值