pytorch学习笔记(线性模型)

线性模型问题介绍        线性模型,通俗来讲就是给定很多个数据点,希望能够找到一个函数来拟合这些数据点令它的误差最小,比如简单的一元函数就可以来表示给出一系列的点,找一条直线,使得直线尽可能与这些点接近,也就是这些点到直线的距离之和尽可能小。用数学语言来严格表达 ,即 给定由 d 个属性描述的示例 x = (x1,x2 ,x3 , ...,xd) ' 其中 Xi 表示X在第i个属性上...
摘要由CSDN通过智能技术生成

线性模型

问题介绍

        线性模型,通俗来讲就是给定很多个数据点,希望能够找到一个函数来拟合这些数据点令它的误差最小,比如简单的一元函数就可以来表示给出一系列的点,找一条直线,使得直线尽可能与这些点接近,也就是这些点到直线的距离之和尽可能小。用数学语言来严格表达 ,即 给定由 d 个属性描述的示例 x = (x1,x2 ,x3 , ...,xd) ' 其中 Xi 表示X在第i个属性上面的取值, 线性模型就是试图学习 一个通过属性的线性组合来进行预测的函数,即一元线性模型非常简单,每个$i$对应于一个数据点,希望建立一个模型 ,其中 ,y一般可以用向量来表达:

                                                                                     

w=(w1,w2,...,wd)和b都是要学习的参数,模型通过不断地调整w和b,最后就能得到一个最优的模型.

一维线性回归

给定数据集D = \{ (x_{1}, y_{1}), (x_{2}, y_{2}, ..., (x_{m}, y_{m})\},线性回归希望能够优化出一个好的函数f(x),使得f(x_{i}) = wx_{i} + b能够和尽可能接近。

如何才能学习到参数w和b呢?很简单,只需要确定如何衡量与之间的差别,一般通过损失函数(Loss Funciton)来衡量:

Loss = \sum_{i=1}^{m}(f(x_{i})-y_{i})^2

取平方是因为距离有正有负,我们希望将它们变为全是正的。这就是著名的均方误差。基于均方误差最小化来进行模型求解的办法也称为"最小二乘法",我们要做的事情就是希望能够找到和,使得:

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值