全连接神经网络_深度神经网络全连接层

一、概念

全连接层一般在网络的最后部分做分类输出,全连接层的有m个输入和n个输出,每一个输出都和所有的输入相连,相连的权重w都是不一样的,同时每一个输出还有一个bias。

二、前向全连接

假设输入是4,输出是4,每个输出点都有一个输入点的参数,一共4x4=16个w参数,每个输出点都有一个b参数,一共4个b参数。

bedb3c15cde43f067706074be1dfab6a.png

前向全连接的定量分析如下

算力:

Flops

BPE byte per element

input feature M*bpe

output feature N*bpe

w参数

*bpe

b参数 N*bpe

三、反向全连接input gradient传递

反向全连接是有两个2部分,

一个是gradient的传递,已知

,求
,为前一层的参数gradient求解准备。

另外是参数gradient求解,已知

,求
,从而得到参数的更新值。

假设输入是4,输出是4,每个输出点都有一个输入点的参数,一共4x4=16个w参数,每个输出点都有一个b参数,一共4个b参数。

反向全连接gradient传递的过程如下:(根据前向公式和求导法则很容易得出)

985fe4b15edb06907bb097f485329a75.png

可以看到weight矩阵进行了转置 记为

=

算力为 2MN Flops

三、反向全连接参数gradient求解

参数w gradient求解,已知

,求

2ddc2b71a4174ba730a688eda6f3e3e7.png

,其中input feature进行了转置

算力为 MN mul

参数b gradient求解,已知

,求

b1c92172ea3db25963fbcf7ceb4c7b13.png

两者就是相等的关系
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值