机器学习 day15(神经网络的工作原理,激活值a的公式)

1. 隐藏层的内部实现
在这里插入图片描述

  • 如图通常来说,该模型一共有两层,不包括输入层(layer 0),第一层是隐藏层(layer 1),第二层是输出层(layer 2),我们可以用方括号上标来表示当前参数在第几层,当前在隐藏层,所以方括号上标为[1]
  • layer 1中的每一个神经元的输入都是向量X,不必手动选择某些特征传递,直接整体传递即可。且每一个神经元都可看作一个小的逻辑回归函数,因此它也就拥有特征向量W,特征b。每个神经元都会输出激活值a,即逻辑回归函数g(z)的值。我们可以用下标来区分该层中的不同神经元的向量W,b,a。
  • layer 1中所有神经元的输出,可以合成一个激活向量a,并把向量a作为layer 2的输入传递给layer 2

2. 输出层的内部实现
在这里插入图片描述

  • 因为该输出层只有一个神经元,所以layer 2的输出是一个数字,而不是一个向量。且当前在输出层,所以方括号上标为[2]
    在这里插入图片描述
  • 可以设阈值为0.5,当输出层的输出结果大于等于0.5时,预测y的值为1。如果小于0.5时,预测y的值为0

3. 神经网络的工作原理

  • 综上:每层都输入一个向量,并将该向量应用于一些逻辑回归函数,计算并输出另一个向量,依次一层层的执行,直到得到最终的输出层的输出结果,即该神经网络的结果,并依据设定的阈值(如0.5),选择得出或不得出最终的预测结果。

4. 复杂神经网络的练习
在这里插入图片描述

  • 如图通常来说,该神经网络有4层,输入层并不算在内。空白处表示layer 3的第二个神经元,所以该神经元的参数为上标3,下标2,但向量a为layer 2的输出,所以向量a的上标为2
    在这里插入图片描述
    在这里插入图片描述
  • 对于任意第l层的任意第j单元(神经元),它的激活值a的公式如图
  • g函数为sigmoid函数,也叫激活函数,因为g函数是输出激活值a的函数
  • 为了让layer 1的激活值a也能使用公式,我们把输入向量x写成向量a,上标0
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
算法可以分为以下几个步骤: 1. 计算特征图的平均激活 对于每个滤波器,我们可以计算其在特征图上的平均激活,这可以通过将每个滤波器的输出与特征图相乘并取平均来实现。该平均激活可以被看作是该滤波器在推理激活的概率,因此可以用来评估滤波器的重要程度。 2. 屏蔽背景区域激活干扰 我们只对 RoI 区域计算平均激活,因为背景区域可能会干扰我们评估滤波器重要性的结果。在计算平均激活时,我们只考虑 RoI 区域内的像素。 3. 基于平均激活进行滤波器剪枝 我们可以根据滤波器的平均激活来决定是否将其剪枝。具体来说,我们可以设定一个阈,如果滤波器的平均激活低于该阈,则将其剪枝。 4. 针对 SlowFast 网络应用不同剪枝算法 我们可以针对 SlowFast 网络的快分支和慢分支分别应用不同的剪枝算法。具体来说,我们可以使用 L1 算法对 Slow 分支进行剪枝,使用 AAoR 算法对 Fast 分支进行剪枝。这是因为 Slow 分支和 Fast 分支具有不同的特点,需要采用不同的剪枝策略。 5. 混合剪枝策略 最后,我们可以将上述两种剪枝算法进行混合,得到一个混合剪枝策略。具体来说,我们可以在 Slow 分支使用 RoI 平均激活滤波器剪枝算法,而在 Fast 分支使用 AAoR 算法。这种混合剪枝策略可以更好地利用 SlowFast 网络的不同特征,从而实现更好的剪枝效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

丿罗小黑

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值