自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 ValueError: Unknown CUDA arch (8.9) or GPU not supported 报错处理

在RTX4090上运行深度学习代码报错:ValueError: Unknown CUDA arch (8.9) or GPU not suppor。原因是cuda(我这里是cuda11.0,最高支持8.6)的版本不支持当前算力(8.9)

2023-11-12 14:30:59 3277 7

原创 【Pytorch 笔记】网络可视化 && torchsummary

这里能看见图像大小的变化过程,以及参数量。可以直观的看见网络模型和参数配置。

2023-10-19 16:25:38 974 1

原创 【Pytorch 学习笔记】def init_weights() 初始化参数

nn.init.constant_() 是 torch.nn 中的用于填充数值的函数,这里用于指定初始化值,还有许多其他函数可用于此。在生成网络 net 时,会指定 net 最初的权重,对于一些预训练好的模型权重,就可以放在这个部分进行加载。在 CNN 中,经常可以看见 init_weights() 函数,它是用来初始化网络参数的。并不是所有的层都能初始化权重的,比如 nn.MaxPool2d(),它是无法初始化的。init_weights(self, m) 中的 m 就是指 net 中的某一层。

2023-10-19 15:51:42 2241 1

原创 【Computer Vision论文笔记】PVT && PVTv2

Pyramid Vision Transformer(PVT) 是致力于密集预测的主干网络的研究,是一个由Transformer组成的金字塔结构的网络,能够在多种视觉任务中使用。金字塔结构是CNN中一种非常经典的设计,作者在此将其应用到Transformer中,如下图:图(a)所示的 CNN 结构,feature maps会随着网络深度的增加,大小逐渐缩小。图(b)是ViT的维度变化情况,输入与输出大小保持不变。结合两者,就有了图(c)所示的一Tansformer为基础的金字塔结构。

2023-10-07 21:20:54 231 1

原创 【Computer VIsion论文笔记】VAN解读

近些年,Transformer中提出的Self-Attention(自注意力)在计算机视觉任务中大火,冲击了CNN(卷积神经网络)在深度学习中的主导地位。作者在论文中指出,Self-Attention在视觉任务中有三个缺点:(1)将图像视为一维序列,这忽略了它本身的二维结构;(2) 对于高分辨率图像,二次复杂度太昂贵;(3)只捕获空间适应性,而忽略了通道适应性。

2023-10-03 22:00:31 153

原创 【Computer VIsion论文笔记】LeNet-5解读 & 入门CNN

LetNet-5被设计用于手写数字识别,成为了卷积神经网络(Convolutional Neural Network,简称CNN)的开山之作,此后,基于CNN的深度学习方法层出不穷,大放异彩。LetNet-5的结构的简洁明了,但已经完整展现了CNN的三大核心结构卷积层(Convolution Layer):提取图像特征;池化层(Pooling Layer):筛选特征;全连接(Fully Connected Layer):进行分类。如下:Input:大小为 32×32 的 image;

2023-10-03 13:31:13 111 1

原创 【Computer Vision论文笔记】SegNeXt解读

SegNeXt是一个用于语义分割(Semantic Segmentation)的网络模型,它是纯卷积的,结构简单明了。当下,Transformer在计算机视觉领域表现出强大的实力,大量的研究者使用Transformer取代Convolution来解决语义分割等视觉任务,本文则重新审视卷积的结构,用纯卷积网络设计出一个极具竞争力的语义分割模型,在性能上表现优秀。

2023-10-01 11:27:54 248

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除