1. 线性神经网络

1. 线性回归

1.1 基本元素

1.1.1 模型

y ^ = w ⊤ x + b \hat{y}=\boldsymbol{w}^\top\boldsymbol{x}+b y^=wx+b

1.1.2 损失函数

L ( W , b ) = 1 n ∑ i = 1 n l ( i ) ( w , b ) L\left(\boldsymbol{W}, b\right)=\frac{1}{n}\sum\limits_{i=1}^nl^{(i)}\left(\boldsymbol{w}, b\right) L(W,b)=n1i=1nl(i)(w,b)
其中
l ( i ) ( w , b ) = 1 2 ( y ^ ( i ) − y ( i ) ) 2 l^{(i)}\left(\boldsymbol{w},b\right)=\frac{1}{2}\left(\hat{y}^{(i)}-y^{(i)}\right)^2 l(i)(w,b)=21(y^(i)y(i))2

1.1.3 解析解

线性回归模型是存在解析解的,即,用一个公式直接将解表达出来,但并不是所有模型都有解析解
w ∗ = ( X ⊤ X ) − 1 X ⊤ y \boldsymbol{w}^*=\left(\boldsymbol{X}^\top\boldsymbol{X}\right)^{-1}\boldsymbol{X}^\top\boldsymbol{y} w=(XX)1Xy

1.1.4 小批量梯度下降

这是一种用于在无法求得解析解的情况下,有效训练模型的方法

  1. 初始化模型参数的值,如随机初始化
  2. 从数据集中随机抽取小批量样本 B \mathcal{B} B
    • 在负梯度的⽅向上更新参数,具体更新如下
    • 其中 η \eta η 是一个预先确定的正数
      ( w , b ) ← ( w , b ) − η ∣ B ∣ ∑ i ∈ B ∂ ( w , b ) l ( i ) ( w , b ) \left(\boldsymbol{w}, b\right)\leftarrow\left(\boldsymbol{w}, b\right)-\frac{\eta}{\left|\mathcal{B}\right|}\sum\limits_{i\in\mathcal{B}}\partial_{\left(\boldsymbol{w}, b\right)}l^{(i)}\left(\boldsymbol{w}, b\right) (w,b)(w,b)BηiB(w,b)l(i)(w,b)
  3. 不断重复第 2 步

1.2 矢量化加速

在 Python 中不要自己写 for 循环,要写矢量化的代码,这通常会带来数量级的加速

1.3 正态分布与平方损失

  1. 正态分布
    p ( x ) = 1 2 π σ 2 exp ⁡ ( − 1 2 σ 2 ( x −
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值