——这事好的
一、神经网络密集流
我们之前以一种形态建立了一个前馈神经网络,在这里,我们在Tensorflow里面还有一种方式来搭建前馈神经网络
在这里,我们不用经过第一层的计算然后传递到第二层,不借助a1和a3,而是采用顺序函数,将第一层和第二层连接起来,这样便简化了我们的代码。
二、强人工智能(AGI)
我们目前大多数的ai都是ANI(弱人工智能),而弱人工智能只是人工智能的一个分支,还有一种人工智能叫做强人工智能,我们利用强人工智能做一些人类做不到的事情。强人工智能比弱人工智能更加的强大,更加的接近甚至超越人脑。
但是这是一个很困难的事情,人类的神经元不是一个简单单一的逻辑函数。
三、神经网络为何如此高效
首先不得不提到我们的向量化,向量化大幅的提高了我们的运算效率。我们可以通过矩阵乘法快速有效的实现。
矩阵以及向量化有效的缩减了代码量,让我们更高效的来执行
四、Tensorflow的实现
训练神经网络是一个非常有趣的事情,如今我们终于也学到了这一步——好耶!!!
我们继续我们之前的手写数字识别的例子,我们继续用我们之前熟悉的神经网络架构,仍然是第一个隐藏层有25个神经元,第二个隐藏层有15个神经元。最后有一个输出单元。
这是一个简单的代码,我们很容易便可以理解其中的意思,这个模型便是把三层神经元用Sequential链接起来。
那我们的第二步便是让Tensorflow编译这个模型,让Tensoflow编译模型的关键步骤是选定我们要用的代价函数,这里我们使用一个神秘的函数,叫做稀疏分类交叉熵。而确定了代价函数之后下一步便是调用我们的拟合函数。
圆圈2这一行的代码便是制定了我们的代价函数。
我们必须确定我们梯度下降的步数以及我们的时间,epochs便是我们进行梯度下降所用的步数。