吴恩达机器学习笔记.Day7

——这事好的

一、神经网络密集流

我们之前以一种形态建立了一个前馈神经网络,在这里,我们在Tensorflow里面还有一种方式来搭建前馈神经网络

在这里,我们不用经过第一层的计算然后传递到第二层,不借助a1和a3,而是采用顺序函数,将第一层和第二层连接起来,这样便简化了我们的代码。

二、强人工智能(AGI)

我们目前大多数的ai都是ANI(弱人工智能),而弱人工智能只是人工智能的一个分支,还有一种人工智能叫做强人工智能,我们利用强人工智能做一些人类做不到的事情。强人工智能比弱人工智能更加的强大,更加的接近甚至超越人脑。

但是这是一个很困难的事情,人类的神经元不是一个简单单一的逻辑函数。

三、神经网络为何如此高效

首先不得不提到我们的向量化,向量化大幅的提高了我们的运算效率。我们可以通过矩阵乘法快速有效的实现。

矩阵以及向量化有效的缩减了代码量,让我们更高效的来执行

四、Tensorflow的实现

训练神经网络是一个非常有趣的事情,如今我们终于也学到了这一步——好耶!!!

我们继续我们之前的手写数字识别的例子,我们继续用我们之前熟悉的神经网络架构,仍然是第一个隐藏层有25个神经元,第二个隐藏层有15个神经元。最后有一个输出单元。

这是一个简单的代码,我们很容易便可以理解其中的意思,这个模型便是把三层神经元用Sequential链接起来。

那我们的第二步便是让Tensorflow编译这个模型,让Tensoflow编译模型的关键步骤是选定我们要用的代价函数,这里我们使用一个神秘的函数,叫做稀疏分类交叉熵。而确定了代价函数之后下一步便是调用我们的拟合函数。

圆圈2这一行的代码便是制定了我们的代价函数。

我们必须确定我们梯度下降的步数以及我们的时间,epochs便是我们进行梯度下降所用的步数。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值