吴恩达深度学习 —— 3.1 神经网络概览

在深入学习技术细节之前,先快速了解一下这一章会学习什么内容。
在这里插入图片描述
前面一章我们讨论了逻辑回归,了解了这个模型和流程图之间的联系,如上图。在该流程图中,你需要输入特征x,参数w和b,用于计算z,然后用z计算出a,我们用a同时表示输出 y ^ \hat{y} y^,接下来就可以计算损失函数Loss。

神经网络就是这样,可以把很多sigmoid单元堆叠起来构成一个神经网络,而之前,这个节点对应两个计算步骤,首先计算出z值,然后计算a值。
在这里插入图片描述
在神经网络中,这堆节点对应着像z这样的计算,接着就是类似a的计算;对于后面的节点对应着另一个类似z和a的计算。
在这里插入图片描述在这里插入图片描述
因此,稍后我们会使用下面这些记号,首先用x表示输入特征,还有参数W和b,这样就可以算出 z [ 1 ] z^{[1]} z[1]。我们会使用新的符号,上标方括号1[1]表示与这些节点相关的量,就是所谓的层,用上标方括号[2]表示与另一些节点相关的量,这是神经网络的另一层。这里使用这样的上标方括号的目的是用来区分表示单个训练样本的圆括号。
在这里插入图片描述
圆括号是用来表示单个训练样本的,用 x ( i ) x^{(i)} x(i)表示,第i个训练样本,上标方括号[1][2]表示神经网络中不同的层,然后用类似逻辑回归去计算了 z [ 1 ] z^{[1]} z[1]之后,需要用 s i g m o i d ( z [ 1 ] ) sigmoid(z^{[1]}) sigmoid(z[1])计算 a [ 1 ] a^{[1]} a[1]

接下来使用另外一个线性方程计算 z [ 2 ] z^{[2]} z[2],接着计算 a [ 2 ] a^{[2]} a[2] a [ 2 ] a^{[2]} a[2]就是整个神经网络的最终输出,同时也用 y ^ \hat{y} y^表示网络的输出, a [ 2 ] a^{[2]} a[2],最后计算损失函数Loss。
在这里插入图片描述
在逻辑回归中有反向传播计算,同样在神经网络中也有类似的反向传播

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值