PyTorch入门学习(十一):神经网络-线性层及其他层介绍

目录

一、简介

二、PyTorch 中的线性层

三、示例:使用线性层构建神经网络

四、常见的其他层


一、简介

神经网络是由多个层组成的,每一层都包含了一组权重和一个激活函数。每层的作用是将输入数据进行变换,从而最终生成输出。线性层是神经网络中的基本层之一,它执行的操作是线性变换,通常表示为:

y = Wx + b

其中,y 是输出,x 是输入,W 是权重矩阵,b 是偏置。线性层将输入数据与权重矩阵相乘,然后加上偏置,得到输出。线性层的主要作用是进行特征提取和数据的线性组合。

二、PyTorch 中的线性层

在 PyTorch 中,线性层可以通过 torch.nn.Linear 类来实现。下面是一个示例,演示如何创建一个简单的线性层:

import torch
from torch.nn import Linear

# 创建一个线性层,输入特征数为 3,输出特征数为 2
linear_layer = Linear(3, 2)

在上面的示例中,首先导入 PyTorch 库,然后创建一个线性层 linear_layer,指定输入特征数为 3,输出特征数为 2。该线性层将对输入数据执行一个线性变换。

三、示例:使用线性层构建神经网络

现在,接下来看一个示例,如何使用线性层构建一个简单的神经网络,并将其应用于图像数据。我们使用 PyTorch 和 CIFAR-10 数据集,这是一个广泛使用的图像分类数据集。

import torch
from torch import nn
from torch.nn import Linear
from torch.utils.data import DataLoader
import torchvision.datasets

# 加载 CIFAR-10 数据集
dataset = torchvision.datasets.CIFAR10("D:\\Python_Project\\pytorch\\dataset2", train=False, transform=torchvision.transforms.ToTensor(), download=True)
dataloader = DataLoader(dataset, batch_size=64)

# 定义一个简单的神经网络
class MyModel(nn.Module):
    def __init__(self):
        super(MyModel, self).__init()
        self.linear1 = Linear(196608, 10)

    def forward(self, x):
        x = x.view(x.size(0), -1)  # 将输入数据展平
        x = self.linear1(x)
        return x

# 创建模型实例
model = MyModel()

# 遍历数据集并应用模型
for data in dataloader:
    imgs, targets = data
    outputs = model(imgs)
    print(outputs.shape)

在上面的示例中,首先加载 CIFAR-10 数据集,然后定义了一个简单的神经网络 MyModel,其中包含一个线性层。我们遍历数据集并将输入数据传递给模型,然后打印输出的形状。

四、常见的其他层

除了线性层,神经网络中还有许多其他常见的层,例如卷积层(Convolutional Layers)、池化层(Pooling Layers)、循环层(Recurrent Layers)等。这些层在不同类型的神经网络中起到关键作用。例如,卷积层在处理图像数据时非常重要,循环层用于处理序列数据,池化层用于减小数据维度。在 PyTorch 中,这些层都有相应的实现,可以轻松地构建不同类型的神经网络。

参考资料:

视频教程:PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
PyTorch提供了nn模块来快速构建神经网络。其中,nn.Sequential是一种常用的方式,它将网络以序列的方式组装起来。每个使用前面计算的输出作为输入,并维护之间的权重矩阵和偏置向量。通过使用nn.Sequential,我们可以很方便地定义一个三神经网络。例如,下面的代码定义了一个具有10个输入节点、20个隐藏节点和2个输出节点的神经网络: import torch import torch.nn as nn model = torch.nn.Sequential( torch.nn.Linear(10, 20), torch.nn.ReLU(), torch.nn.Linear(20, 2) ) 这样就定义了一个简单的神经网络模型,其中有两个线性和一个ReLU激活函数。你可以根据需要自定义神经网络的结构和数。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Pytorch入门(二)——使用pytorch构建神经网络](https://blog.csdn.net/ylycrp/article/details/122765162)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Pytorch学习(二)定义神经网络](https://blog.csdn.net/haohaomua/article/details/107084414)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不吃花椒的兔酱

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值