![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 91
叫小侯的小白程序员
在校研究生
展开
-
深层神经网络(第四周)
这里省略了深层神经网络的前向传播和反向传播,内容和之前相似,不做过多描述。若今后需要,可以再补习。原创 2023-12-03 13:35:00 · 1057 阅读 · 0 评论 -
神经网络(第三周)
所以,只要是正值的情况下,导数恒等于1,当是负值的时候,导数恒等于0。如果你这样初始化这个神经网络,那么这两个隐含单元就会完全一样,因此他们完全对称,也就意味着计算同样的函数,并且肯定的是最终经过每次训练的迭代,这两个隐含单元仍然是同一个函数。如果你要初始化成0,由于所有的隐含单元都是对称的,无论你运行梯度下降多久,他们一直计算同样的函数,这没有任何帮助。函数两者共同的缺点是:在z特别大或者特别小的情况下,导数的梯度或者函数的斜率会变得特别小,最后就会接近于0,导致梯度下降的速度降低。分析一下这是为什么。原创 2023-12-02 20:50:09 · 1065 阅读 · 0 评论 -
深度学习1【吴恩达】
跟着吴恩达老师学习深度学习,这里是我整理的笔记,方便以后复习。原创 2023-11-12 11:20:22 · 134 阅读 · 0 评论