Introduction
Deep Learning的神经网络就是一个function
Neural Network
现在用的激活函数已经是tanh或者leakyRelu了。
ResNet用了特殊的结构,不是单纯的叠加层数
其实本质用的Matrix Operation。但是我现在想不起来batch是怎么做运算的。batch应该是增加一维。
这种线性代数的计算不断堆叠,GPU算起来更快。
可以看到中间的隐藏层作用就是特征的提取,代替了机器学习的特征工程。
输入256维,输出10维
hidden layer可以产生无数个function,我们要通过梯度下降来找到最佳的一个funciton。
Backpropagation