线性回归概念

一、回归

回归:是指一类为一个或多个自变量与因变量之间关系建模的方法,通常用来表示输入与输出的关系(连续值)

二、线性回归

自变量x与因变量 y 之间的关系是线性的,即y可以表示为 x 中元素的加权和,这里通常允许包含观测值的一些噪声

三、线性模型

式子中:w 称为权重;b为偏置

1、权重决定了每个特征对我们预测值的影响。偏置是指当所有特征都取值为0时,预测值应该为多少。

2、 严格来说,式子是输入特征的一个仿射变换(affine transformation)。仿射变换的特点是通过加权和对特征进行线性变换(linear transformation),并通过偏置项来进行平移(translation)

3、线性回归的目标是找到一组权重向量 w 和偏置 b。当给定从X的同分布中取样的新样本特征时,找到的权重向量和偏置能够使得新样本预测标签的误差尽可能小

4、在我们开始寻找最好的 模型参数(model parameters)w 和 b 之前,我们还需要两个东西:(1)一种模型质量的度量方式;(2)一种能够更新模型以提高模型预测质量的方法。

四、损失函数

1、损失函数:能够量化目标的实际值与预测值之间的差距

2、样本 𝑖 的预测值为 𝑦̂ (𝑖),其相应的真实标签为 𝑦(𝑖) 。平方误差如下

3、为了度量模型在整个数据集上的质量,我们需要计算在训练集n个样本上的损失误差均值

4、在训练模型时,我们希望寻找一组参数 (𝐰∗,𝑏∗w∗,b∗),这组参数能最小化在所有训练样本上的总损失

五、小批量随即梯度下降

1、它通过不断地在损失函数递减的方向上更新参数来降低误差

2、最简单的用法是计算损失函数(数据集中所有样本的损失均值)关于模型参数的导数(在这里也可以称为梯度),但是在执行中会非常慢,因为每一个更新数据库都需要遍历整个数据集

3、为解决以上问题,可以在每次计算更新时随机抽取一小批样本,这就是小批量随机梯度下降

4、随机梯度下降步骤

  • 随机抽样一个小批量B
  • 计算小批量的平均损失关于模型参数的导数
  • 将梯度乘以一个预先确定的正数𝜂η,并从当前参数的值中减掉

5、公式介绍

  • |B| 表示每个小批量中的样本数,这也称为批量大小
  • η 表示学习率
  • 批量大小和学习率的值通常是手动预先指定,而不是通过模型训练得到。这种可以调整但不在训练过程中更新的参数被称为超参数
  • 调参就是选择超参数的过程

五、神经网络图

对于线性回归,每个输入都与每个输出(在本例中只有一个输出)相连,我们将这种变换( 输出层)称为 全连接层

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值