![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
文章平均质量分 65
Midsummer-逐梦
这个作者很懒,什么都没留下…
展开
-
Pytorch学习之AdaptiveAvgPool2d函数
是 PyTorch 中用于实现自适应平均池化(Adaptive Average Pooling)的模块。该层将输入特征图的高度和宽度调整到指定的输出尺寸,通过对输入特征图的不同区域取平均值来生成输出特征图。与固定大小的池化层(如AvgPool2d)不同,自适应池化可以处理任意大小的输入特征图,并将其调整为固定的输出尺寸。原创 2024-07-04 10:23:53 · 151 阅读 · 0 评论 -
Pytorch学习之torch.split函数
用于将一个张量(tensor)沿指定维度(dim)拆分为多个子张量。这个函数对于处理需要按块拆分数据的任务非常有用,例如在自然语言处理和图像处理中的数据预处理。原创 2024-07-02 20:35:08 · 188 阅读 · 0 评论 -
PyTorch中matmul函数的矩阵相乘原则和注意事项
为什么是这样,因为其实高维矩阵的乘法就是分别从高维中选取对应位置的一对矩阵(普通矩阵)相乘把高维都遍历完了,整个高维矩阵乘法也就完成了。最后2维为矩阵乘法正常计算完成应该有的维度,而高维则以参与计算的两个矩阵中,维度更大的那个矩阵的维度为准。最后,我们考虑更高维度的情况,例如四维张量。那么原参与计算的矩阵形状,高维有多大,计算结果就应该有多大(因为高维只遍历),我们对最后两个维度进行了矩阵相乘,得到的结果张量 C 的形状是。,我们对最后两个维度进行了矩阵相乘,得到的结果张量 C 的形状是。原创 2024-07-01 18:44:47 · 454 阅读 · 0 评论 -
PyTorch学习之torch.matmul函数
用于两维或更高维张量的矩阵乘法操作。它支持广播机制,并且能够处理不同形状和维度的张量,适用于广泛的应用场景。原创 2024-07-01 18:42:38 · 287 阅读 · 0 评论 -
PyTorch 中 Tensor 的 `reshape`、`view`、`transpose`、`permute` 函数的区别
用于改变张量的形状。新张量与原张量共享数据内存,但形状不同。也用于调整张量的形状,与reshape类似,新张量与原张量共享数据内存,但要求张量是连续(contiguous)的。用于交换张量的两个维度,新张量与原张量共享数据内存。用于根据指定顺序重新排列张量的所有维度,新张量与原张量共享数据内存。reshape:用于改变张量形状,可以处理非连续张量。view:用于改变张量形状,但只能用于连续张量。对于非连续张量,需要先调用方法。transpose:用于交换两个维度。permute。原创 2024-07-01 15:56:21 · 402 阅读 · 0 评论 -
PyTorch学习之 torch.Tensor.view 函数
函数,用于高效地调整张量(tensor)的形状。可以重新组织张量的数据而不改变其内容,使我们能够更灵活地处理和操作数据。原创 2024-07-01 15:18:45 · 176 阅读 · 0 评论 -
PyTorch学习之torch.transpose函数
函数我们用于交换张量的维度。原创 2024-07-01 15:02:48 · 232 阅读 · 0 评论 -
PyTorch学习之torch.reshape函数
函数用于将一个张量重新排列成指定的形状(shape)。其本质上是创建了一个新的张量,新的张量与原始张量共享相同的数据存储,但形状发生了变化。原创 2024-07-01 15:02:07 · 156 阅读 · 0 评论 -
PyTorch学习之torch.nn.Conv2d函数
是 PyTorch 中用于实现二维卷积层的类,这个类可以说是对的进一步封装,使其使用起来更加的傻瓜式。原创 2024-06-30 14:36:42 · 401 阅读 · 0 评论 -
PyTorch学习之torch.nn.functional.conv2d函数
是 PyTorch 中用于进行二维卷积操作的函数。卷积操作是深度学习中卷积神经网络(CNN)的核心部分,用于提取图像特征,常见于图像分类、目标检测和语义分割等任务中。原创 2024-06-29 21:54:58 · 353 阅读 · 0 评论 -
Pytorch学习之torch.nn.functional.pad()函数
是 PyTorch 中用于对张量进行填充操作的函数。填充操作在处理图像、序列数据等任务时非常常见,它可以在张量的指定维度两端添加一定数量的元素,填充方式多样,包括零填充、常数填充、反射填充和边界填充等。原创 2024-06-29 11:02:13 · 745 阅读 · 0 评论 -
PyTorch学习之 torch.repeat 函数
的主要作用是重复张量的内容,从而创建一个新的张量。repeat会创建一个全新的张量,并将输入张量的内容按指定次数进行复制,因此会占用更多的内存。原创 2024-06-28 11:16:27 · 253 阅读 · 0 评论 -
PyTorch学习之 torch.squeeze 函数
的示例,以帮助更好地理解其用法。的主要作用是从给定的张量。原创 2024-06-28 10:51:02 · 558 阅读 · 0 评论 -
yolov9从头开始训练
本数量,如果你GPU性能可以上天,显存可以下地那么可以调大一下,目前我设置为64,输入单样本大小为480×640480×640,消耗显存45G;如果显存小就调小点。时过境迁,当读者你看到此教程时,可能距离作者收笔此文相去已久,若未能解决你的问题,作者深感抱歉。若读者发现某些地方已经不再适合当下,可以私聊或者评论区告知,我会及时进行修改!原创 2024-02-29 11:40:20 · 1463 阅读 · 0 评论 -
Pytorch学习torch.clamp ()用法浅析
input: 输入张量,即需要进行元素限制的张量。min: 张量中的元素的最小值。如果元素小于这个值,将被替换为这个最小值。max: 张量中的元素的最大值。如果元素大于这个值,将被替换为这个最大值。out(可选): 输出张量,用于保存结果。如果没有提供,函数会创建一个新的张量来保存结果。原创 2024-01-05 21:14:07 · 1231 阅读 · 0 评论 -
全连接层(线性连接层)-torch.nn.Linear-学习
我写这篇文章的原因是,我之前对权重矩阵的形状在Linear层的表示不是很理解。对于上面的例子,输入形状为【3x4】,在我的理解下,权重矩阵的形状应该为【4x1】因为这样刚好就可以直接进行矩阵乘积了,很方便。我不明白之处在于为什么Linear的权重矩阵形状要设置为【1,4】,然后运算的时候先做一个转置变成【4x1】,再进行【3x4】【4x1】的矩阵乘积操作。大家有想法的在评论区留言吧,我在网上暂时没找到解释得过去的答案!原创 2023-12-31 03:11:17 · 1289 阅读 · 0 评论