一、简介
· 神经网络瞎扯的概述
简要的说,什么是神经网络?其实就是一个很复杂的函数,给一个输入(一般都是一组数)能有一个输出(比如知道是什么类别)。神经网络的魅力在于,它可以自己把这个“函数”学习出来。在“监督学习”中,你可以“喂”一些已经标记好的数据(比如一堆把人脸部分框起来的图片),然后它自己学习明白了,就可以去识别新的图片(从新给的图片中识别出人脸)。
而对于神经网络的基本结构,概要的讲,分为输入层、若干个隐含层、输出层。层与层之间由一些特定参数相联系,其中大多类似于:
X → Y=WTX+b → Z=g(Y)
每一层的输入都通过一个线性的函数(其中有参数w1,w2,w3…和b)和一个激活函数(sigmod,ReLU 等等),这就是“正向传播”;然后神奇的是,你可以从这个网络的终点出发,利用梯度下降法倒着优化你的参数W和b,以便找到最优的解决方案来适应你给出的训练集(比如前面提到的人脸图片)。
我这么讲你大概不知所云,所以我想给你一些可视化的材料:
深度学习系列视频3Blue1Brown (Grant Sanderson)