深度学习(神经网络的表示及输出)

神经网络的表示

首先拿以上这样一种神经网络模型来演示

输入层

首先第一层,有三个特征值,X1,X2,X3竖向堆叠起来,称为神经网络模型的输入层

该层中主要包含了神经网络的输入

在输入层,我们习惯用X来表示其特征输入,此外还有另外一种表示方法,即a_{}^{[0]}

a_{}^{[0]}=x

这个a也表示激活(activations)的意思,意味着网络中不同层的值,会传递给后面的层

例如,输入层将x的值传给隐藏层,隐藏层也同样会产生一个激活值,记作a^{_{}^{[1]}}

隐藏层

隐藏层的含义,在训练集中这些中间节点的真正数值,我们都是不知道的,在训练集中看不到它们的数值,仅可以看到输入值和输出值。

对于隐藏层的节点表示

如上,我们可将其表示为,a_{1}^{[1]},a_{2}^{[1]},a_{3}^{[1]},a_{4}^{[1]}

表示隐藏层的四个节点

a^{[1]}可表示为一个4*1的矩阵,或大小为4的列向量

输出层

在这里是最后一层

会产生某个数值a^{[2]},其是个实数

尾言

在一个神经中,当你使用它进行监督学习训练它时, 训练集包含了输入X,还有目标输出Y 

按照约定俗成的符号中,上述所展现的例子是一个双层神经网络,原因是没有算进输入层

之所以没有算入输入层的原因是因为

隐藏层是第一层,输出层是第二层,约定成俗的符号当中,将输入层视作第0层

最后需要知道的是,隐藏层及最后的输出层,是带有参数的,其中这里的隐藏层带有两个相关的参数wb,使用上标[1],表示这些参数,是和第一层隐藏层有关的

类似的输出层也有和它相关的一些参数w^{[2]},以及b^{[2]},从维数来看,分别是1*4和1*1,这是因为输出层只有一个单位

神经网络的输出

如上图,这里的圆圈代表了回归计算的两个步骤

对于隐层的每个节点,都有两个步骤来进行运算

而要在神经网络中真正实现上述步骤

使用for循环是一种方式,但是这种方式会显得十分的低效

为此我们选择使用另一种方式来进行计算实现,把这四个等式进行向量化

可以将以上这部分进行堆叠起来,形成一个4*3的矩阵

类似的将b进行提取也可以得出一个向量,并进行运算可以得到以下公式

这所得结果就是其第一个等式,如下图

然后利用sigmod函数作用域Z中的四个单元得到a^{[1]}

当有一个神经网络模型时,下列四个公式就是需要我们去进行计算的,

计算出隐藏层中的单元,是由下图中的前两个公式进行完成的

而输出层中的logistic回归时利用后两个公式进行实现完成的

  • 16
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值