超级简单!吴恩达deeplearning.ai课程:更复杂的神经网络

在学习完了上一节较为简单的神经网络(超级简单!吴恩达deeplearning.ai:神经网络中的网络层之后,这一节我们来看看更加复杂的神经网络,同时能够让我们使用的符号更加清晰和具体。

更加复杂的神经网络

先上图:
在这里插入图片描述
这张图将作为我们本节的一个更加复杂的神经网络图像的例子,如果你看过我前面的博客,那么很明显,这个神经网络拥有四层(不考虑第零层,也就是输入层),其中,第1,2,3层也被叫做隐藏层,第4层被叫做最终输出层。

详细看看第三层

让我们放大第三层:
在这里插入图片描述
这三个公式在上一节已经详细说过了,这里简单概括下:第三层接收了第二层输出的激活值 a [ 2 ] a^{[2]} a[2],并且三个神经元分别计算出其对应的值 a 1 , a 2 , a 3 a_1,a_2,a_3 a1,a2,a3,从而构成了第三层的激活值 a [ 3 ] a^{[3]} a[3]
图中的w和b右上角并未标记,我们可以加上[3]:
在这里插入图片描述

一个简单的问题

视频中还要求你能够填出上图方括号中的内容,我觉得就很简单了,直接给出答案按:
在这里插入图片描述
总结为公式就是:
a j [ l ] = g ( w j [ l ] ⋅ a [ l − 1 ] + b j [ l ] ) a_j^{[l]}=g(w_j^{[l]}\cdot a^{[l-1]}+b_j^{[l]}) aj[l]=g(wj[l]a[l1]+bj[l])
其中,g()为sigmoid函数,也叫做激活函数,字母的右上角标l代表的是第l层,右下角标j代表的是第l层的第j个神经元。
为了使所有的符号一致,我们可以给输入向量x一个新名字 a [ 0 ] a^{[0]} a[0],这样就与后面其他的激活值一致了。
如果有不能理解的地方,还是看这篇博客:
超级简单!吴恩达deeplearning.ai:神经网络中的网络层

在学完这一节之后,你应该就知道如何在已知上一层隐藏层的基础上计算下一层隐藏层的激活值了,实际上这一节的内容和上一节没有本质的区别,但是大佬开的这毕竟是小白课,讲的还是比较细节的。既然学完了神经网络如何推理的,我们一定想知道如何真的用神经网络进行推理吧!
点点关注O(∩_∩)O,下一节博客将介绍到有关内容哦。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

江安的猪猪

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值