深度学习-线性回归

线性回归 linear regression

通过线性模型逼近数据点
y ^ = w x + b \hat y=wx+b y^=wx+b
如何做到这一点呢?
有一堆数据符合一个原有函数,通过一个假设的模型函数去逼近该原有函数。如果二者之间的差值足够小,则认为假设的函数是符合原有函数的特点的。
在这里就通过引入损失函数来衡量二者之间的差值。
L o s s = 1 2 n ∑ i = 1 n ( y ^ i − y i ) 2 Loss=\frac{1}{2n} \sum_{i=1}^{n}(\hat y_i - y_i)^2 Loss=2n1i=1n(y^iyi)2
通过使Loss函数最小化求 w w w b b b的最优值。
这个形式就是大名鼎鼎的最小二乘法。

这种形式有两种方法求最优值

  • 随机梯度下降法 SGD stochastic gradient descent
    过程像极了下山,在每一点上求导,每一步通过切线指向的方向前进一步,一直到Loss函数不再减小为止,其实是减小的值小于一定的阈值,否则就一直迭代。

  • 正规化方程法
    w ∗ = ( X T X ) − 1 X T y w*=(X^TX)^{-1}X^Ty w=(XTX)1XTy
    找到最优值就寻到了最佳的逼近直线。

到这里线性回归还没和神经网络联系起来。

后来神经网络模型提出来后,一个神经元的工作原理和线性回归有相似之处。通过w和b将输入转化为输出。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值