【学习笔记】cs231n-assignment1-Softmax

本文是作者Kay完成cs231n课程中Softmax作业的心得分享,详细阐述了如何解决两层循环的softmax、向量方式重写softmax以及超参数调优的问题。在softmax的梯度计算中,通过Debug找到了错误并修正,认识到对SVM梯度计算的理解误区。此外,作者还讨论了在阅读硬核英文资料时的心态调整问题,并对文本编辑器的使用体验提出批评。
摘要由CSDN通过智能技术生成

   前言

    大家好,我是Kay,小白一个。以下是我完成斯坦福cs231n-assignment1-Softmax 这份作业的做题过程、思路、踩到的哪些坑、还有一些得到的启发和心得。希望下面的文字能对所有像我这样的小白有所帮助。

    Softmax 与SVM 类似,区别只在于 SVM 使用的是一个 hinge loss 函数,而 Softmax 使用的是 cross-entropy loss 函数,应用思想与贝叶斯公式有异曲同工之处。

 

    TODO1:完成两层循环的softmax

      

       【思路】函数本身按着公式的步骤来就行:求出第i 张图片对应所有标签的分数然后做 e 取幂,把正确的标签分数当分子、分数总和做分母,最后做log 运算取负。

       要注意一点的是!分母是e 取幂再总和的话,可能数值太大会爆掉,这里用到一个小技巧,分子分母同时减去同一个数(这里是减最大的数),分数仍然不变。

       重复一遍:求Wx、减最大值、做e取幂、求总和、求分数、做 log 取负。

       而求梯度dW,则要用到链式法则得到 dW = -X_yi + X_all

2018.7.21

上面的公式对了&#

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值