深度学习之course1————浅层神经网络

本文介绍了神经网络的基础知识,从逻辑回归出发,解释了神经网络的构成,包括输入层、隐藏层和输出层。讨论了权重、偏置的表示方法,以及神经元的计算过程。此外,还提到了激活函数如sigmoid、tanh和ReLU的作用,建议在隐藏层使用tanh或ReLU以提高训练速度。最后,文章强调了非线性激活函数在神经网络中的必要性,以及随机初始化参数对避免梯度消失问题的重要性。
摘要由CSDN通过智能技术生成

神经网络概述

  1. 从Logistic Regression过渡到Neural Network。某种意义上看,Logistic Regression可以看成一个只有一层的neural network, 即没有hidden layer。
  2. 每一层的计算,类似于Logistic Regression:先计算z,再计算a。然后本层的a再作为下一层的输入计算。
  3. 重要的记号:不同layer的变量,在neural network中用上标中括号表示,比如:(W^{[i]})表示第i层的权重。

神经网络的表示
在这里插入图片描述

  1. Neural Network的组成:一个input layer,多个hidden layer,一个output layer
  2. training set作为输入层,即第0层,因此有 (X = a^{[0]})
  3. 每一层输入,上标[i]表示layer的层数,下标j表示neuron的序号(每层有多个neuron)
  4. 一个惯例,input layer不计算在neuron Network的层数里,并且input layer的上标是0。因此一个例子中的是neural network是2层的。
  5. 注意每层的参数w和b的维度。w的行数是本层的neuron的个数,列数数是上一层neuron的个数。b是一个列向量,行数与w相同。

计算神经网络的输出
每个neuron的计算分为两步:z计算出线性组合,a计算激活函数
在这里插入图片描述
每层的计算向量化(注意这里只是一个数据样本x的情况,后面会讲如何扩展为m个数据样本的情况)
在这里插入图片描述
整理后,向量化的表示:
Given input x(a single training se

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值