动手学深度学习复盘01

  1. 从最简单的线性模型开始,可以看作是单层神经网络,多个输入对应一个输出。
    在这里插入图片描述

可表示为:
在这里插入图片描述


在这里插入图片描述

损失函数即为真实值与预测值之间的差距
可通过最小化损失函数来学习w,b参数
在这里插入图片描述

为了学习(更新)w,b参数,从而优化模型,所以引出随机梯度下降的优化算法
在这里插入图片描述

但是在整个训练集上计算梯度太贵,从而引出小批量随机梯度下降算法
在这里插入图片描述

  1. 再将模型进行升级,变换到分类问题
    在这里插入图片描述

多个输入对应多个输出,我们希望输出的为分类的匹配概率
从而引入softmax函数
在这里插入图片描述

想要衡量两个概率的区别,从而建立损失函数,所以引入交叉熵的概念
损失函数即为
在这里插入图片描述

  1. 继续讲模型升级,使其多层,变为多层感知机
    在这里插入图片描述
    在这里插入图片描述

为什么要引入激活函数呢?
是为了将线性变为非线性,从而使模型更加复杂,来解决实际问题。

对于过拟合与欠拟合的概念,用这张图可以解释的很清楚:
在这里插入图片描述

过拟合的解决办法,通常有衰退法和丢弃法(dropout)
对于衰退法,是利用L2正则化技术,从而控制权重w
在这里插入图片描述

权重衰退体现在哪呢?
我们首先对该损失函数求导,计算梯度如下:
在这里插入图片描述

然后带入原先的参数更新式子中:
在这里插入图片描述

得到:
在这里插入图片描述

在这里插入图片描述
这项小于1,所以wt比原先更新式中首先衰退了一点,然后再进行优化更新,从而防止过拟合。
对于丢弃法(dropout)

在这里插入图片描述
在这里插入图片描述

丢弃法是指对每个元素进行如下扰动,从而防止过拟合。

在这里插入图片描述

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值