![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
文章平均质量分 64
uestc_Venn
忆阻器、半导体物理、二维纳米材料、神经网络、深度学习、机器学习、算法设计等
展开
-
Vision Transformer(ViT-Base-16)处理CIFAR-100模式识别任务(基于Pytorch框架)
ViT-B-16是Vision Transformer(ViT)模型的一个变体,由Google在2020年提出。ViT模型是一种应用于图像识别任务的Transformer架构,它采用了在自然语言处理(NLP)中非常成功的Transformer模型,并将其调整以处理图像数据。原创 2024-02-28 15:06:54 · 5019 阅读 · 7 评论 -
torch.where()函数
是 PyTorch 提供的条件选择函数,它允许你基于条件张量的真值元素来选择来自两个数据张量的元素。它的工作方式类似于 Python 的三元条件表达式,但其功能在处理大型张量时显得尤为强大。是 PyTorch 中的一个非常有用的工具,它提供了一种高效、可读性强的方式来处理条件逻辑。通过掌握,你可以简化你的代码,加快开发过程,并提高模型的性能。希望本文能帮助你更好地理解和使用这个功能强大的函数。原创 2024-01-07 00:23:28 · 1055 阅读 · 0 评论 -
深入理解图像数据集的标准化:为什么选择transforms.Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225))
在深度学习中,尤其是处理图像数据时,数据标准化(Normalization)是一项关键的预处理步骤。它涉及调整和缩放数据,以便数据集具有具有零均值和单位方差的特性。在各种图像处理的库和框架中,我们经常看到transforms.Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225))这样一个特定的参数组合。让我们一探究竟,这个参数组合是如何被发现的,它代表什么,以及为什么它如此重要。原创 2023-12-01 20:46:14 · 862 阅读 · 0 评论 -
使用GPU加速大数据列表的条件掩码运算的方法(基于PyTorch框架)
当我们需要对一个较大规模列表(list)按照一定条件对其中的元素进行提取并进行特定运算时,可以尝试条件掩码的方法,即预先生成掩码算子,再将掩码算子作用到原列表后对列表内的数据进行提取。这个过程在CPU上是可行的,但当数据量非常大时(例如将神经网络模型参数保存到列表中,此时的列表长度通常是上万甚至上百万个的),会使得CPU承受很大的负担,且运算速度非常慢。下面用示例代码举例。本人在长度接近50万的原列表上进行双条件掩码操作,转移到GPU上后,相比于CPU,运算速度提升了9倍以上!原创 2023-09-20 21:43:57 · 124 阅读 · 1 评论 -
DataParallel并行运算的模型导入失败Error的解决方法——解除DataParallel封装
但运行后意料之外地出现了如下的error:你也许会很纳闷,明new_model与model已经设置为相同结构了,为什么会报出结构不匹配的error。让我们仔细地观察一下:通过这里的信息我们可以基本分析出来报错的原因来自模型的字典的键(key)出现了不匹配。原创 2023-09-11 18:08:15 · 183 阅读 · 0 评论 -
Pytorch框架下使用多台GPU的数据并行运算的指令
【代码】Pytorch框架下使用多台GPU的数据并行运算的指令。原创 2023-09-11 11:21:17 · 204 阅读 · 0 评论