深度学习——线性回归及pytorch代码实现

线性回归输出是一个连续值,因此适用于回归问题。分类问题中模型的最终输出是一个离散值。softmax回归则适用于分类问题。线性回归和softmax回归都是单层神经网络。

线性回归的基本要素

模型定义\hat{y} = x_1 w_1 + x_2 w_2 + b,其中其中 w_1$和 w_2是权重(weight),b是偏差(bias),且均为标量,都是模型的参数。模型输出 \hat{y}是线性回归对真实价格y的预测或估计。我们通常允许它们之间有一定误差。

模型训练:需要通过数据来寻找特定的模型参数值,使模型在数据上的误差尽可能小。这个过程叫作模型训练(model training)

  • 训练数据:假设我们采集的样本数为 n,索引为 i的样本的特征为 x_1^{(i)}x_2^{(i)},标签为 y^{(i)}。对于索引为 i 的样本,线性回归模型表达式为 \hat{y}^{(i)} = x_1^{(i)} w_1 + x_2^{(i)} w_2 + b
  • 损失函数:在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。

    它在评估索引为 i 的样本误差的表达式为

    \ell^{(i)}(w_1, w_2, b) = \frac{1}{2} \left(\hat{y}^{(i)} - y^{(i)}\right)^2,通常,我们用训练数据集中所有样本误差的平均来衡量模型预测的质量,即

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

vinkuan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值