回顾
计算图
反向传播算法
标量
微积分的链式求导
简而概之,我们能通过知道z对x的偏导,以及上游的L对z的偏导,推理出L对x的偏导
后面看成一个复合函数
反向流模式
向量
迭代实现前向和后向传播
基本都是模块化的
he
总结,这是神经网络的核心技术使用反向传播来获得导数,是链式法则的递归应用,从后面开始,然后倒退,通过他来计算关于所有中间变量的导数,在前向传递中,我们想要计算操作的结果,并且会保存我们稍后可能想要在导数计算中使用的任何中间值。在后向传递中,我们应用链式规则,并采用上游的导数将他们链接起来,将他与我们局部导数相乘以计算相对于节点输入的导数,然后传递给下一个连接的节点
神经网络
实际上和大脑神经没有任何关系,只是一种功能
其中有更简单的函数,彼此堆叠在一起,用分层的方式将他们堆叠在起来,以组成一个更复杂的非线性函数,w1是x中的权重,w2是中间层h的权重
所以这就是术语深度神经网络deep neural network
全连接:每一层都在和这个矩阵相乘