pytorch nn.Linear()详解

pytorch nn.Linear 详解 及在 全连接层的实例

函数

class torch.nn.Linear(in_features, out_features, bias=True)

函数解释

对输入数据做线性变换:y=Ax+b

参数:

in_features - 每个输入样本的大小

out_features - 每个输出样本的大小

bias - 若设置为False,这层不会学习偏置。默认值:True

官方例子

代码

import torch
from torch.autograd import Variable
import torch.nn as nn

#输入样本大小为20 输出样本大小30
m = nn.Linear(20, 30) 

# 随机生成一个大小为 128x20 的矩阵
input = Variable(torch.randn(128, 20))

#进行线性变化
output = m(input)

print(output.size())
torch.Size([128, 30])

分析

output.size()=矩阵size(128,20)*矩阵size(20,30)=(128,30)

简化例子

为了探究线性变化内部的原理,我们将数据简化

代码

import torch
from torch.autograd import Variable
import torch.nn as nn

# 输入的矩阵为5x3的随机矩阵
input = Variable(torch.randn(5, 3))
#输入样本大小为3,输出样本大小为4
m = nn.Linear(3, 4)

output = m(input)

print(input)
print(m)
print(output)
tensor([[-1.4788,  0.9317,  0.2875],
        [ 0.0588, -0.0252, -0.6945],
        [ 1.3408,  0.0937, -1.3727],
        [ 1.3503,  0.5256,  0.2303],
        [-0.2420, -0.2153, -0.1697]])

Linear(in_features=3, out_features=4, bias=True)

tensor([[-0.7177, -0.5477, -0.6553,  0.3569],
        [ 0.4992,  0.3262,  0.6837, -0.7086],
        [ 1.2571,  1.2009,  1.3016, -1.1527],
        [ 0.9723,  0.7095,  0.2631, -0.2271],
        [ 0.3237, -0.0485,  0.4222, -0.5008]], grad_fn=<AddmmBackward>)

分析

输入的矩阵大小为 5x3,线性变化的矩阵为 3x4
最后线性变化后的矩阵大小为 5x4
中间计算过程是什么,网上没找到,以后找到答案了,再补充

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
pytorch 是一个高效的深度学习框架,其中nn.modulelist 和 nn.sequential是常用的模块。这两种模块都可以用于创建深度学习网络,并且能够实现自动求导。nn.sequential 是一个有序的容器,其中每个模块按照传入的顺序依次进行计算。nn.modulelist 是一个无序的容器,其中每个模块都可以以列表的形式存储,且没有特定的计算顺序。 nn.sequential 模块的优点是简单易用,并且可以通过一行代码构建和训练网络。例如,要创建一个简单的两层全连接神经网络,可以如下代码实现: ``` model = nn.Sequential(nn.Linear(784, 64), nn.ReLU(), nn.Linear(64, 10), nn.Softmax(dim=1)) ``` 这会定义一个两个全连接层网络以及 ReLU 和softmax 激活函数,输入大小为 784(MNIST 图像大小) ,输出大小为 10(10 个数字)。 nn.modulelist 是一个更加灵活的容器,可以在其中添加任意的子模块。要使用 nn.modulelist,需要先创建一个空的 nn.modulelist,然后手动向其中添加子模块。例如,可以这样创建一个相同的两层全连接网络: ``` model = nn.ModuleList([ nn.Linear(784, 64), nn.ReLU(), nn.Linear(64, 10), nn.Softmax(dim=1) ]) ``` 需要注意的是,nn.modulelist 中的子模块顺序可能会影响计算结果,因为没有特定的训练顺序。因此,在使用 nn.modulelist 时应该尽量保证顺序的准确性。 综上所述,nn.sequential 和 nn.modulelist 都是常用的容器,用于组织神经网络中的子模块,它们在不同场景下具有各自的优势。在简单的前向计算中,nn.sequential 更加容易使用;在需要更好的灵活性时,nn.modulelist 可以更好地实现目标。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值