![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
learning
文章平均质量分 75
FrancisQiu
学信安的菜鸡
展开
-
《神经网络与深度学习》第8-9章习题解答
最近忙毕设论文,之前写的第8-9章个人解答也就从自己的私人博客进行转载到CSDN上进行分享,答案的正确性不能完全保证。第八章8-1LSTM输入层的特征长度为nnn,输出层的长度为mmm时,神经元个数为:Neuronsall=4×((n+m)×m+m)Neurons_{all}=4 \times ((n+m)\times m +m)Neuronsall=4×((n+m)×m+m)去掉偏置项,则为:Neuronsno−b=4×((n+m)×m)Neurons_{no-b}=4\times((n+m)\转载 2021-04-12 16:50:14 · 2598 阅读 · 4 评论 -
《神经网络与深度学习》习题解答(至第七章)
部分题目的个人解答,参考了github上的习题解答分享与知乎解答。题目是自己做的,部分解答可能出错,有问题的解题部分欢迎指正。第一章2-1直观上,对特定的分类问题,平方差的损失有上限(所有标签都错,损失值是一个有效值),但交叉熵则可以用整个非负域来反映优化程度的程度。从本质上看,平方差的意义和交叉熵的意义不一样。概率理解上,平方损失函数意味着模型的输出是以预测值为均值的高斯分布,损失函数是在这个预测分布下真实值的似然度,softmax损失意味着真实标签的似然度。分类问题中的标签,是没有连续的概..转载 2021-03-26 20:43:21 · 12084 阅读 · 1 评论