吴恩达深度学习教程笔记(一)
反向传播的公式理解
最近在bilibili上自学吴恩达深度学习教程,发现弹幕上不少小伙伴对吴恩达老师的反向传播公式不是很理解,所以打算通过知乎分享一下我自己的看法。
1.为什么看不懂视频中的公式?
我认为就是吴恩达老师对导数和微分符号的混用导致的
在视频中我们约定![]()
举个例子![]()
这样我们就能解释视频中的所有公式了
2.第二周logistic regression derivatives公式理解
首先来看一下视频中的公式介绍
![647eb9c1131820f990b697471ab14928.png](https://i-blog.csdnimg.cn/blog_migrate/bb713ff45bda3fa6482c0aca48ca69d3.png)
其本质就是一个链式求导法则,下面我来演示一下
首先从成本函数开始对$a$进行求偏导![]()
![]()
然后对
进行求导
![]()
![]()
这样我们就可以得到成本函数对的求导了
![]()
接着就可以分别求成本函数对和
的求导了
![]()
![]()
3.第三周shallow nerual network公式理解
首先我们来看一下正向传播公式![]()
![]()
![]()
![]()
接着我们反过来进行链式求导![]()
这里直接套用上一节的公式![]()
![]()
![]()
下面这个公式比较难理解,它是从隐藏层到输入层的链式求导![]()
![]()
其中是
的导数
![]()
![]()
![]()