pytorch 线性层Linear详解

线性层就是全连接层,以一个输入特征数为2,输出特征数为3的线性层为例,其网络结构如下图所示:
在这里插入图片描述
输入输出数据的关系如下:
在这里插入图片描述
写成矩阵的形式就是:
在这里插入图片描述
下面通过代码进行验证:

import torch.nn as nn
linear_layer = nn.Linear(2,3)
print('weight shape',linear_layer.weight.shape,'bias shape',linear_layer.bias.shape)
linear_layer.weight.data = torch.tensor([[1.,1.],[2.,2.],[3.,3.]])
linear_layer.bias.data = torch.tensor([1.,2.,3.])
x=torch.tensor([[1.,2.]]) # 输入张量应该是浮点数,否则报错
y=linear_layer(x)
print(y)

输出结果:
在这里插入图片描述
与期望的结果相符
torch.nn中的Linear类包含的变量weight就是上面定义的权重矩阵A,包含的变量bias是一个一维的张量。
线性层输入输出关系的矩阵形式中之所以将输入数据和输出数据写成行向量的形式,是因为Linear层可以自动处理多条输入数据的情况。如果输入的张量是一个二维张量,有N行,每一行代表一条数据,不同列代表一条数据的不同特征,那么Linear层会自动将每一条数据分别作为全连接层的输入,得到N条输出数据,Linear的返回值是一个shape为(N,out_features)的张量。例如:

x2=torch.tensor([[1.,2],[2,4]])
y2=linear_layer(x2)
print(y2)

这里有两条输入数据(1,2)和(2,4),输出数据也是两条。输出结果如下:
在这里插入图片描述

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

星水天河

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值