CMU 10-414/714: Deep Learning Systems --hw0

hw0

宏观上的步骤:
在这里插入图片描述

  1. softmax loss: 实现softmax loss代码
    • 概念
      • softmax就是将结果映射到0~1之间,且所有结果相加为1(概率形式)
      • cross-entropy loss就是计算 p ( x ) log ⁡ q ( x ) p(x)\log {q(x)} p(x)logq(x),此值可用于衡量实际输出与期望输出的距离,进而衡量预测模型与真实模型之间的差距,值越大说明越不准确。(p(x)为真实值,通常为0或1;q(x)为推算概率,在0~1之间)
      • Needle中的softmax loss更简单一些,就是计算 − log ⁡ p (  label  = y ) -\log p(\text { label }=y) logp( label =y),即在输出中,让正确类别的概率值取负log
    • 公式:
      • softmax:
        softmax ⁡ ( y i ) = y i ′ = e y i ∑ j = 1 n e y i , ∑ j = 1 n y i ′ = 1 \operatorname{softmax}\left(\mathrm{y}_i\right)=\mathrm{y}_i^{\prime}=\frac{e^{\mathrm{y}_i}}{\sum_{j=1}^n e^{\mathrm{y}_i}},\sum_{j=1}^n \mathrm{y}_i^{\prime}=1 softmax(yi)=yi=j=1neyieyi,j=1nyi=1
        其中,神经网络的原始输出为 y 1 , y 2 , . . . , y n
  • 16
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值