一个Deep learning的3个步骤就是
1、设计一个网络的框架
2、找到你的Lossfunction
3、使用梯度下降的方法找到框架中最好的参数
为什么使用deep呢?
老师使用数字电路的例子来进行比较,如果你使用一层的元器件来模拟所有的情况,是可以做到的,只是这个一层的器件会很多。但是如果你使用两层甚至是多层的起来来模拟所有的情况的话,可能就只需要一些器件就足以完成了。
CNN:
俗称卷积网络,以前一直听别人说这些CNN啊,RNN呐,感觉很高大上,无奈自己只知道一个全连接的神经网络,就感觉很low。
今天听了老师讲的CNN之后,发现并不是这样的。CNN其实就是fully NN 的缩减的版本。
这个是老师课上的PPT,我们可以发现,一个CNN网络其实就是一个架构,前面是一些针对图片的特征提取操作,提取完成之后,还是需要丢到fully NN里面进行训练。下面的图说明的是CNN的Flatten步骤之前的部分
其实就是一个全连接网络的删减版本。