神经网络概述
- 从Logistic Regression过渡到Neural Network。某种意义上看,Logistic Regression可以看成一个只有一层的neural network, 即没有hidden layer。
- 每一层的计算,类似于Logistic Regression:先计算z,再计算a。然后本层的a再作为下一层的输入计算。
- 重要的记号:不同layer的变量,在neural network中用上标中括号表示,比如:(W^{[i]})表示第i层的权重。
神经网络的表示
- Neural Network的组成:一个input layer,多个hidden layer,一个output layer
- training set作为输入层,即第0层,因此有 (X = a^{[0]})
- 每一层输入,上标[i]表示layer的层数,下标j表示neuron的序号(每层有多个neuron)
- 一个惯例,input layer不计算在neuron Network的层数里,并且input layer的上标是0。因此一个例子中的是neural network是2层的。
- 注意每层的参数w和b的维度。w的行数是本层的neuron的个数,列数数是上一层neuron的个数。b是一个列向量,行数与w相同。
计算神经网络的输出
每个neuron的计算分为两步:z计算出线性组合,a计算激活函数
每层的计算向量化(注意这里只是一个数据样本x的情况,后面会讲如何扩展为m个数据样本的情况)
整理后,向量化的表示:
Given input x(a single training se