深度学习与PyTorch笔记3

简单回归案例

梯度下降算法

迭代,求导,算极值。
x ′ = x − x ∗ ∗ l r x'=x-x^**lr x=xxlr
x ′ x' x为新值, x ∗ x^* x为梯度(导数), l r lr lr为学习率,设小一点,慢慢的逼近最优解。
梯度下降的求解器,加了约束,导致求解过程变得更快,最优解的精度变高,目前用的最多的有原始版本的sgd,还有rmsprop,以及最常用的Adam。
y = w ∗ x + b y=w*x+b y=wx+b
1.567 = w ∗ 1 + b 1.567=w*1+b 1.567=w1+b
3.043 = w ∗ 2 + b 3.043=w*2+b 3.043=w2+b

w = 1.477 w=1.477 w=1.477
b = 0.089 b=0.089 b=0.089
实际工作中,只能求得最接近 y y y w ∗ x + b w*x+b wx+b
有高斯噪声时,
y = w ∗ x + b + ε y=w*x+b+\varepsilon y=wx+b+ε ε ∈ N ( 0.01 , 1 ) \varepsilon\in\N(0.01,1) εN(0.01,1)
求解
l o s s = ( W X + b − y ) 2 loss=(WX+b-y)^2 loss=(WX+by)2
W W W X X X均为矩阵。 l o s s loss loss函数为我们构造的优化目标。
求得合适的 W W W b b b使 l o s s loss loss值最小,预估 x N x_N xN y N y_N yN
l o s s = ∑ i ( w ∗ x i + b − y i ) 2 loss=\sum_i(w*x_i+b-y_i)^2 loss=i(wxi+byi)2

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值