深度学习——回归算法Regression

本文介绍了回归算法在深度学习中的应用,包括一元线性回归和多元线性回归的概念,以及均方误差在模型拟合中的作用。此外,还讨论了非满秩矩阵问题的解决方法,如岭回归,并解释了回归算法中的误差组成和方差度量。最后,提供了基本回归算法的Python实现。
摘要由CSDN通过智能技术生成

同样是监督算法,回归是求解连续值的相关关系,分类是对离散值的划分。
在这里插入图片描述
图1
如图1,我们想要模拟离散点的走势。

一、一元线性回归
一元线性回归就是假设拟合曲线是一条直线,现在求解这条直线方程。
假设
在这里插入图片描述
那么如何使得这条曲线拟合,那么就要提出均方误差

二、均方误差
均方误差就是用二次方来衡量真实值和预测值直接的距离,然后再在所有样本上取平均。
公式如下:
在这里插入图片描述
为什么是均方误差?
基本假设

  • g(x)是f(x)的估计
  • r’ = g(x) + ε
  • 假设 ε 服从均值为0,方差为σ^2的高斯分布
  • 那么显然的g(x) + ε 满足均值为g(x),方差为σ^2的高斯分布

极大似然估计

  • 对于估计值的参数值,即求在r’发生的情况下,x的最大似然估计
  • 计算样本集上的似然函数
    在这里插入图片描述
  • b部分为常数,不影响最大值点
  • 因为p(r|x) ~ N(g(x),σ^2),所以
    在这里插入图片描述
  • 化简出的式子中A为常数,那么最后最大化 L 意味着最大化B部分,也就是最小化 -B,也就是均方误差。
  • 如果分布不再是高斯分布,那么均方误差不再管用

三、多元线性回归
表达式的y仍然是一维,而x变成多维
在这里插入图片描述

  • 矩阵表示
    在这里插入图片描述
  • 然后把x,y都用矩阵表示
    在这里插入图片描述
  • Loss损失值也要矩阵表示
    在这里插入图片描述
  • 求解Loss的方式如下:
    在这里插入图片描述
    由于矩阵表示将w和b放一起,因此只需要写一个十式子。
  • 对w的求解结果即:
    在这里插入图片描述
    可见式子中需要求逆矩阵ÿ
  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值