pytorch小总结

本文总结了PyTorch中nn.Sequential的使用,nn.Linear层的配置,nn.Parameter的作用,以及模型的保存与加载。nn.Sequential允许构建序列化模块,nn.Linear设置全连接层,nn.Parameter将Tensor转为可训练参数。还介绍了torch.save和torch.load用于模型和参数的存储与恢复。最后提到了卷积神经网络的设计原则——平移不变性和局部性。
摘要由CSDN通过智能技术生成

 说明一:

nn.Sequential

一个有序的容器,神经网络模块将按照在传入构造器的顺序依次被添加到计算图中执行,同时以神经网络模块为元素的有序字典也可以作为传入参数。

使用方法:方式一:
这是一个有顺序的容器,将特定神经网络模块按照在传入构造器的顺序依次被添加到计算图中执行。
方式二:
也可以将以特定神经网络模块为元素的有序字典(OrderedDict)为参数传入。
方式三:
也可以利用add_module函数将特定的神经网络模块插入到计算图中。add_module函数是神经网络模块的基础类(torch.nn.Module)中的方法,如下描述所示用于将子模块添加到现有模块中

个人感觉为自动定义了一个前向传播的模块。在ResNet中可定义残差块,减少代码量,方便理解

好处包括:Sequential 允许我们构建序列化的模块,我们可以通过数字访问第几层,可以通过parameters、weights等参数显示网络的参数和权重

说明二:

PyTorch的nn.Linear()是用于设置网络中的全连接层的需要注意在二维图像处理的任务中,全连接层的输入与输出一般都设置为二维张量,形状通常为[batch_size, size]

in_features指的是输入的二维张量的大小,即输入的[batch_size, size]中的size。

  out_features指的是输出的二维张量的大小,即输出的二维张量的形状为[batch_sizeÿ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值