吴恩达.深度学习系列-C1神经网络与深度学习-w4深度神经网络

这篇博客介绍了深度L层神经网络的概念,强调了深度学习在网络层数上的优势,解释了为何深层网络能有效地处理分类问题。博主详细阐述了前向传播的过程,包括矩阵乘法的运用,以及如何通过增加隐藏层来构建更复杂的特征。此外,还讨论了深度学习与大脑工作方式的不同,并指出超参数调整在深度学习中的重要性。
摘要由CSDN通过智能技术生成

前言

Deep L-layer neural network

shallow 与 Deep 是相对的。
一般对某些问题进行分类,可以先从逻辑回归(最简单的单个神经元),逐步增加网络层数,并把层数做为一个超参数,使用交叉验证来判定多少层的网络适合我们的分类问题。
符号申明:

  • W[l]Z[l],W[l]A[l1]+b[l]=Z[l] W [ l ] 是 用 来 计 算 Z [ l ] 的 参 数 , W [ l ] ∗ A [ l − 1 ] + b [ l ] = Z [ l ]
  • n[l]ln[0] n [ l ] 表 示 第 l 层 的 神 经 元 个 数 , n [ 0 ] 是 输 入 层 特 征 的 个 数
  • a[l]la[0]=xx1,x2...xnxa[L] a [ l ] 表 示 第 l 层 输 出 的 激 活 值 , a [ 0 ] = x 是 输 入 层 的 x 1 , x 2 . . . x n x 。 a [ L ] 是 输 出 层

Forward Propagation in a Deep Network

这里写图片描述
在上图这样一个3×5×5×3×1的5层网络中,Forward propagation的vecteration表达如下:
第0层是输入层,L=4层,第L层是输出层。
n[0]=nx=3,n

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值