神经网络的全连接层_深度神经网络全连接层

一、概念

全连接层一般在网络的最后部分做分类输出,全连接层的有m个输入和n个输出,每一个输出都和所有的输入相连,相连的权重w都是不一样的,同时每一个输出还有一个bias。

二、前向全连接

假设输入是4,输出是4,每个输出点都有一个输入点的参数,一共4x4=16个w参数,每个输出点都有一个b参数,一共4个b参数。

21d3c5146b21fd3f5ec910098d5efa57.png

前向全连接的定量分析如下

算力:

equation?tex=NM%2A2 Flops

BPE byte per element

input feature M*bpe

output feature N*bpe

w参数

equation?tex=NM%7B2%7D *bpe

b参数 N*bpe

三、反向全连接input gradient传递

反向全连接是有两个2部分,

一个是gradient的传递,已知

equation?tex=%5Cfrac%7B%5Cpartial+L%7D%7B%5Cpartial+o%7D ,求
equation?tex=%5Cfrac%7B%5Cpartial+L%7D%7B%5Cpartial+x%7D,为前一层的参数gradient求解准备。

另外是参数gradient求解,已知

equation?tex=%5Cfrac%7B%5Cpartial+L%7D%7B%5Cpartial+o%7D ,求
equation?tex=%5Cfrac%7B%5Cpartial+L%7D%7B%5Cpartial+w%7D+
equation?tex=%5Cfrac%7B%5Cpartial+L%7D%7B%5Cpartial+b%7D ,从而得到参数的更新值。

假设输入是4,输出是4,每个输出点都有一个输入点的参数,一共4x4=16个w参数,每个输出点都有一个b参数,一共4个b参数。

反向全连接gradient传递的过程如下:(根据前向公式和求导法则很容易得出)

56ab211c05976502a91144bd634a84c7.png

可以看到weight矩阵进行了转置 记为

equation?tex=%5Cdelta%5E%7BL-1%7D =
equation?tex=%5Cdelta%5E%7BL%7D
equation?tex=W%5E%7BT%7D

算力为 2MN Flops

三、反向全连接参数gradient求解

参数w gradient求解,已知

equation?tex=%5Cfrac%7B%5Cpartial+L%7D%7B%5Cpartial+o%7D ,求
equation?tex=%5Cfrac%7B%5Cpartial+L%7D%7B%5Cpartial+w%7D+

044230dcd47d7356d50e807ff87055de.png

equation?tex=W%5E%7B%27%7D%3DX%5E%7BT%7DO%5E%7B%27%7D ,其中input feature进行了转置

算力为 MN mul

参数b gradient求解,已知

equation?tex=%5Cfrac%7B%5Cpartial+L%7D%7B%5Cpartial+o%7D ,求
equation?tex=%5Cfrac%7B%5Cpartial+L%7D%7B%5Cpartial+b%7D

7baf3b37253dcb909226e3b7a8ff3bfa.png

equation?tex=B%5E%7B%27%7D%3DO%5E%7B%27%7D 两者就是相等的关系
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值