《动手学深度学习》笔记5——Softmax 回归→损失函数→图片分类数据集

1. Softmax 回归

6961ed6b6b5743fc85248ef0dc4f99a1.png

561c4bff217d4caa8828ddd6f54e68bf.png

7994c15207844b499605203d010ac206.png

03d1cf142b184c0b8108efc63a10ba7a.png

dbfcfd0cf6bf4fe99b3b11ca522eefb3.png

f8dcd43502f44cd89d425fa97cd83db7.png

d9e86b1e87ef4411993666f081f8fc23.png

李沐老师:

  • eq?%5Chat%7By%7D(y hat)用来代表模型计算出的预测值
  • Oy:识别出正确类y的置信度(识别为正确的概率值
  • Oi:识别出其它i识别错了) 的置信度(识别为其它的概率值
  • Oy - Oi 要大于一个阈值,是为了让模型将真正正确的类和其它不一样的类拉开距离

edb4c6c0c62144d7b602eec75b75b649.png

823c771fb27c46cf961cadfbfe4b6f37.png

李沐老师:回忆一下,我们的eq?y_%7Bi%7D只有一个是1,其余的都是0

智谱AI:

  • 梯度:梯度告诉我们模型预测的概率偏离真实概率的程度和方向,也就是求导结果
  • 参数更新的公式通常是:参数 = 参数 - 学习率 * 梯度

4a5d0e5058b74e47acf9a2ddd35c2148.png

2. 损失函数

以下是三个常见的损失函数:

2.1 均方损失 (L2 Loss)

bf26477ede7a4496aba0db8488adb3be.png

李沐老师:

  • 蓝色线:固定y,即y=0的时候,变化预测值y'
  • 绿色线:它的似(然)函数(统计学里的重要概念,咱这门课不介绍),符合高斯分布
  • 橙色线:损失函数的梯度,是一次函数
  • 【横坐标表示的是预测值 𝑦′,而纵坐标表示的是损失值 𝑙(𝑦,𝑦′)】
  • 问题:(看橙色的梯度线)预测值离真实值(原点)很远的时候,权重更新会太大,导致不稳定

1ad92f07c4a54100877683b41646143a.png

2.2 绝对值损失 (L1 Loss)

755b892d522f4078b81fc2a72009fa33.png

李沐老师:

  • 优点:看橙色的梯度线,梯度为±1,也就是说预测值无论离真实值有多远,每次权重更新的变化量都是恒定的,会比较稳定
  • 缺点:在接近0,即接近真实值的时候,梯度会出现±,训练末期会不稳定

0ef7d9424e0d4ff29d306ab99a4c8ddc.png

2.3 Huber's Robust Loss

e59b451209c64dd69e1aa971d0032bd2.png

  • 融合L1和L2损失函数的优点,缩小了缺点

38eecdc966b94e81a785454813a24131.png

3. 图像分类数据集

4. 从零实现

5. 简洁实现

  • 18
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值