![](https://img-blog.csdnimg.cn/20191026105359327.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
邱锡鹏神经网络与深度学习习题解答byMahomet
rt,我看没人写答案我就一边学一边写
Mahomet_
我不是一个大学生
展开
-
邱锡鹏神经网络与深度学习习题5-1和5-2解答byMahomet
习题5-1: 宽卷积的交换性,我看连续性卷积积分的时候随便缓缓就行了,因此这里也差不多。 现有 (我这里没有用互相关) 图中红的为矩阵x,绿的为卷积核 根据宽卷积定义 而我们的目标图景则是这样的: 为了让x的下标形式和w的进行对换,进行变量替换 令 , 故 . 则 已知 因此对于 由于宽卷积的条件,s和t的变动范围是可行的。 习题5-2:...原创 2019-10-26 10:57:54 · 1950 阅读 · 0 评论 -
邱锡鹏神经网络与深度学习习题第三章解答byMahomet
pdf的版本式30September2019的 3-1:决策平面的法向量不就是权重向量\omega嘛 3-2:略 3-3每次更新\omega的时候都有样本特征向量出现; 3-6:我觉得是可以的,因为|sigma的取值范围是0~1,而在这个平方损失函数里正好是单调的 3-7:见p64(虽然我没有很明白,如果仅仅从数学上为何要去考虑数值增益的事情,而且要是这样的话,哪怕分两类也要类似考虑):...原创 2019-10-06 21:38:11 · 1457 阅读 · 1 评论 -
邱锡鹏神经网络与深度学习习题2-6和2-7解答byMahomet
(pdf版本:30September2019) 2-6: (1)根据定义,极大似然估计应有: 因此, 对其关于\mu求导并取0,可得 (2)根据定义,最大后验分布应有: 所以, 而对乘积第二项,根据题目给的条件, 因此相比\mu^{ML},\mu^{MAP}多了一项\mu-\mu_0。 2-7: 我的理解是,当N足够多时,人们预先指定的先验分...原创 2019-10-06 13:01:32 · 1107 阅读 · 0 评论 -
邱锡鹏神经网络与深度学习习题2-1、2-2、2-3和2-4解答byMahomet
(pdf版本:30September2019) 2-1:参考第75页 2-2:参考式2.36,可以将并入和,并形成新的和。可见肯定会影响回归结果。直观上,这种权重还是为的式放大和缩小不同语境下的重要性; 2-3:秩只能取行数或列数中较小的那个; 2-4:代入即可得证,顺便可以复习矩阵微积分。 ...原创 2019-10-06 09:09:14 · 1413 阅读 · 0 评论 -
邱锡鹏神经网络与深度学习习题2-5解答byMahomet
pdf的版本式30September2019的 然后根据对数似然函数,上式加对数并代入正态分布具体表达式: 把不含\omega的项提出来视作常系数(注意这里的\sigma也与\omega无关): 然后参看式2.36 后面处理完全相同。得证。 ...原创 2019-10-06 08:53:17 · 1353 阅读 · 0 评论