pytorch中的nn.Bilinear的计算原理详解

我们都知道在pytorch中的nn.Linear表示线性变换,官方文档给出的数学计算公式是 y = xA^T + b,其中x是输入,A是权值,b是偏置,y是输出,卷积神经网络中的全连接层需要调用nn.Linear就可以实现。而在看pytorch的源码linear.py文件时可以看到里面有Bilinear的定义,起初看到这个名字,大家会以为它是实现对图像做放大的上采样插值,可是在pytorch中有nn.Upsample模块是对图像做上采样的。于是看linear.py文件中对Bilinear的定义,如下图所示

可以看到它的数学计算公式是y = x1 * A * x2 + b,不过里面关于shape的说明,讲的含糊不清。为了弄懂Bilinear的计算过程,我们按照文档给出的例子运行一次nn.Bilinear的计算,然后把两个输入input1和input2,以及weight和bias都转换成numpy.array的形式,然后用numpy函数实现一次Bilinear的计算,把最后的输出结果跟nn.Bilinear的计算输出结果求误差值,代码如下:

print('learn nn.Bilinear')
m = nn.Bilinear(20, 30, 40)
input1 = torch.randn(128, 20)
input2 = torch.randn(128, 30)
output = m(input1, input2)
print(output.size())
arr_output = output.data.cpu().numpy()

weight = m.weight.data.cpu().numpy()
bias = m.bias.data.cpu().numpy()
x1 = input1.data.cpu().numpy()
x2 = input2.data.cpu().numpy()
print(x1.shape,weight.shape,x2.shape,bias.shape)
y = np.zeros((x1.shape[0],weight.shape[0]))
for k in range(weight.shape[0]):
    buff = np.dot(x1, weight[k])
    buff = buff * x2
    buff = np.sum(buff,axis=1)
    y[:,k] = buff
y += bias
dif = y - arr_output
print(np.mean(np.abs(dif.flatten())))

最后的运行结果是:

可以看到我们自己用numpy实现的Bilinear跟调用pytorch的Bilinear的输出结果的误差在小数点后7位,通过编写这个程序,现在可以理解Bilinear的计算过程了。需要注意的是Bilinear的weight是一个3维矩阵,这是跟nn.linear的一个最大区别。

首先,以weight的第0维开始,逐个遍历weight的每一页,当遍历到第k页时,输入x1与weight[k,:,:]做矩阵乘法得到buff,然后buff与输入x2做矩阵点乘得到新的buff,接下来对buff在第1个维度,即按行求和得到新的buff,这时把buff的值赋值给输出y的第k列

遍历完weight的每一页之后,加上偏置项,这时候Bilinear的计算就完成了。为了检验编写的numpy程序是否正确,我们把输出y跟调用pytorch的nn.Bilinear得到的输出output转成numpy形式的arr_output做误差比较。

我们在学习深度学习算法时,需要理解一个深度神经网络里的每种类型的层的计算原理,比如卷积层,池化层,以及在这篇文章里讲到的nn.Bilinear双线性变换层,而不能仅仅只是学会调用一个深度学习框架的接口函数就觉得已经掌握了深度学习算法。为了弄懂神经网络中的一个层的计算原理,比如pytorch框架里的nn.Module和nn.functional模块里的函数,我们可以把张量数据转换成numpy形式的数据,然后用numpy函数实现这个功能,最后把输出结果跟调用pytorch的输出结果做误差比较,这样有利于对深度学习算法的实现原理的理解

 

### DeepLabV3+ ASPP 实现原理 DeepLabV3+ 是一种先进的语义分割模型,其中引入了空间金字塔池化模块 (ASPP),用于捕捉多尺度上下文信息。ASPP 通过并行应用多个不同采样率的空洞卷积来提取特征[^2]。 #### 空洞卷积的作用 空洞卷积(Atrous Convolution),也称为膨胀卷积,在不增加参数量的情况下有效扩展感受野大小。这使得网络能够捕获更大范围内的背景信息而无需下采样操作,从而保留更多细节[^3]。 #### ASPP 结构详解 ASPP 模块由一组具有不同扩张率的平行分支组成: - **标准卷积层**:采用常规 $1 \times 1$ 卷积核处理输入数据; - **三个带不同扩张因子的空洞卷积层**:分别设置为 $(r=6)$、$(r=12)$ 和 $(r=18)$ 的 $3\times3$ 空洞卷积; - **全局平均池化层**:将整个特征图压缩成单个向量表示,并经过上采样恢复到原始尺寸;最后连接所有这些子路径的结果作为最终输出。 这种设计允许模型在同一层次内获取多种分辨率下的视觉模式,进而提高对复杂场景的理解能力。 ### PyTorch 中的实现方式 以下是使用 PyTorch 构建 ASPP 层的一个简单例子: ```python import torch.nn as nn import torch class ASPP(nn.Module): def __init__(self, in_channels, out_channels): super().__init__() self.conv_1x1 = nn.Sequential( nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=1), nn.BatchNorm2d(out_channels), nn.ReLU(inplace=True)) rates = [6, 12, 18] self.aspp_block1 = _make_aspp_layer(in_channels, out_channels, rate=rates[0]) self.aspp_block2 = _make_aspp_layer(in_channels, out_channels, rate=rates[1]) self.aspp_block3 = _make_aspp_layer(in_channels, out_channels, rate=rates[2]) self.global_avg_pool = nn.Sequential( nn.AdaptiveAvgPool2d((1, 1)), nn.Conv2d(in_channels=in_channels, out_channels=out_channels, kernel_size=1), nn.BatchNorm2d(out_channels), nn.ReLU(), nn.Upsample(scale_factor=(input_shape[-2], input_shape[-1]), mode='bilinear', align_corners=False)) self.output = nn.Conv2d(len(rates)*out_channels + out_channels*2, out_channels, kernel_size=1) @staticmethod def _make_aspp_layer(in_chans, out_chan, rate): conv = nn.Conv2d(in_channels=in_chans, out_channels=out_chan, kernel_size=3, stride=1, padding=rate, dilation=rate) bn = nn.BatchNorm2d(out_chan) relu = nn.ReLU() return nn.Sequential(conv, bn, relu) def forward(self, x): size = x.shape[-2:] feat1 = self.conv_1x1(x) feat2 = self.aspp_block1(x) feat3 = self.aspp_block2(x) feat4 = self.aspp_block3(x) feat5 = self.global_avg_pool(x) x = torch.cat((feat1, feat2, feat3, feat4, feat5), dim=1) x = self.output(x) return F.interpolate(x, size=size, mode="bilinear", align_corners=False)[^2] ``` 此代码片段展示了如何定义一个包含四个主要组件的标准 ASPP 模型类 `ASPP` 及其实现逻辑。注意这里简化了一些实际部署中的优化措施以便于理解核心概念。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值