一、Part one神经网络和深度学习
1.A[1]矩阵,在横向方向上表示的是不同样本的切换,在纵向方向上表示的是不同layer层的切换。
右上角for loop代码可以向量化为下面四行代码(利用矩阵+b广播)
2.四个常用的激活函数(sigmoid\tanh\relu(retectified linear unit)\leaky relu)
3.激活函数的导数
1.A[1]矩阵,在横向方向上表示的是不同样本的切换,在纵向方向上表示的是不同layer层的切换。
右上角for loop代码可以向量化为下面四行代码(利用矩阵+b广播)
2.四个常用的激活函数(sigmoid\tanh\relu(retectified linear unit)\leaky relu)
3.激活函数的导数