斯坦福CS224n课程作业

斯坦福CS224n作业一

softmax

作业要求如下:
1443944-20190428130320885-1842439271.png
解析:题目要求我们证明\(softmax\)函数具有常数不变性。

解答:对于\(x+c\)的每一维来说,有如下等式成立:
\[softmax(x+c)_{i}=\frac{e^{x_{i}+c}}{\sum_{j}e^{x_{j}+c}}=\frac{e^{x_{i}}*e^{c}}{\sum_{j}(e^{x_{j}}*e^{c})}=\frac{e^{x_{i}}*e^{c}}{\sum_{j}(e^{x_{j}})*e^{c}}=\frac{e^{x_{i}}}{\sum_{j}e^{x_{j}}}=softmax(x)_{i}\]
则可知\(softmax(x)=softmax(x+c)\)成立

Neural Network Basics

求解sigmoid函数梯度

作业要求如下:
1443944-20190428130342658-1963383862.png

解析:本题要求我们计算\(\sigma(x)\)函数的梯度,并用\(\sigma(x)\)表示结果
解答:\[\frac{\partial{(\sigma(x)})}{\partial{x}}=\frac{\partial{(\frac{1}{1+e^{-x}}})}{\partial{x}}\]
\(a=1+e^{-x}\),应用链式法则可以得到:
\[\frac{\partial{(\sigma(x)})}{\partial{x}}=\frac{\partial{(\frac{1}{a}})}{\partial{x}}=-(\frac{1}{a})^{2}*\frac{\partial{a}}{\partial{x}}=-(\frac{1}{a})^{2}*e^{-x}*(-1)=\frac{e^{-x}}{(1+e^{-x})^{2}}\]
\(\sigma(x)\)可以表示为\(\sigma(x)-\sigma(x)^{2}\)

softmax + 交叉熵的梯度推导

作业要求如下:
1443944-20190428130356155-1925483137.png

解析:本题给定了实际值\(y\),预测值\(\hat{y}\),以及softmax的输入向量\(\theta\),要求我们求解\(CE(y,\hat{y})\)\(\theta\)的梯度
解答:
对于每个\(\theta_{i}\)来说,\(CE(y,\hat{y})\)\(\theta_{i}\)的梯度如下所示:
1443944-20190428130217290-1747482305.png

可知,对于所有的i来说,\(CE(y,\hat{y})\)\(\theta_{i}\)的梯度为\(\hat{y}-y\)

三层神经网络的梯度推导

作业要求如下:

1443944-20190428141826600-1194920678.png

解析:本题要求推导\(CE(y,\hat{y})\)对输入\(x\)的梯度。
解答:
1443944-20190428141916943-2079559102.png

转载于:https://www.cnblogs.com/AnnaJuly/p/10783347.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值