Pytorch深度学习开发实践学习
文章平均质量分 58
基于Pytorch的官方文档、网课视频和相关项目介绍Pytorch的基本知识和项目实战
量子-Alex
这个作者很懒,什么都没留下…
展开
-
【目标跟踪】【MMTracking的部署与开发】03 demo_sot.py源码解析
06d全部源码如下,下面开始解析。原创 2024-03-13 17:29:04 · 1229 阅读 · 1 评论 -
【目标跟踪】【MMTracking的部署与开发】02 验证是否成功部署
【目标跟踪】【MMTracking的部署与开发】02 验证是否成功部署。原创 2024-03-13 09:08:57 · 429 阅读 · 0 评论 -
【目标跟踪】【MMTracking的部署与开发】01 安装与部署
• GCC 5+• MMCV兼容的MMTracking、MMCV和MMDetection版本如下所示。请安装正确的版本,以避免出现安装问题。原创 2024-03-13 09:00:47 · 1627 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】【VGG】经典算法复现-Pytorch实现VGG主干网络(1)model.py
VGG网络是计算机视觉领域一种主流的特征提取的主干网络它最早来自牛津大学视觉组的论文《VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION》他们利用3*3卷积核、最大池化和全连接层构建了5种类型的VGG神经网络,下面就具体实现一下这些类型的VGG神经网络。原创 2024-03-11 22:38:43 · 1347 阅读 · 0 评论 -
【Transformer】single self-attention的Pytorch实现
这里面 X的输入是(batchsize,num,dim_in)num是一维序列中token的个数,这里a1到a4就4个,dim_in是每个token的特征维数,这里每一个a都是1*2的向量,特征维度为2,dim_in就为2。对于Q、K、V的维度,W1 W2 W3分别是(dim_in,dq) (dim_in,dk) (dim_in,dv) 只不过dq肯定等于dk。,并且从输入中提出q,k,v,其中q,k的维度是一定要保持一致的,是依靠k.transpose(-2,-1)实现的。原创 2024-03-09 21:02:03 · 1187 阅读 · 0 评论 -
【Transformer】single self-attention的理解与计算步骤
参考B站Enzo_Mi老师【self-Attention|自注意力机制 |位置编码 | 理论 + 代码】建议大家去看老师的原视频,讲解非常清晰,这里个人整理一下思路。原创 2024-03-09 20:42:13 · 777 阅读 · 0 评论 -
【ViT】Vision Transformer的实现01 patch embedding
输入的通道数是3 embed_dim既是我们要求的输出通道数即每个token的特征维数,同时在卷积运算里面这代表着这层有多少个卷积核,224的图像,我们设置每个patch图像块的尺寸是16,因此呢,我们可以从H和W两个维度将原图像进行分割,然后flatten(2),在第二维上进行展开 (8,768,16,16)变成了(8,768,16*16)然后卷积核的大小就是patch的大小16,步长的大小也是patch的大小16,这个意思就相当于用16。patch_size是我们分割的图像块的大小 16 像素。原创 2024-03-08 20:54:17 · 1147 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】【AlexNet】经典算法复现-Pytorch实现AlexNet神经网络(2)train.py
创建一个设备对象,如果CUDA(一种用于运行深度学习模型的并行计算平台和API模型)可用,则使用GPU(这里是“cuda:0”表示第一个GPU),否则使用CPU。import sys: 导入Python的系统模块,提供对Python解释器使用或维护的一些变量的访问,以及与Python解释器强烈交互的功能。使用ImageFolder从指定路径加载训练数据集,并应用之前定义的训练预处理。定义图片数据集的路径,它位于之前获取的数据根目录下的“data_set”文件夹中,并命名为“flower_data”。原创 2024-02-29 11:07:39 · 791 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】【AlexNet】经典算法复现-Pytorch实现AlexNet神经网络(1)model.py
AlexNet是人工智能深度学习在CV领域的开山之作,是最先把深度卷积神经网络应用于图像分类领域的研究成果,对后面的诸多研究起到了巨大的引领作用,因此有必要学习这个算法并能够实现它。原创 2024-02-29 09:39:10 · 1187 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】Pytorch实现LeNet神经网络(3)predict.py
classes = (‘plane’, ‘car’, ‘bird’, ‘cat’, ‘deer’, ‘dog’, ‘frog’, ‘horse’, ‘ship’, ‘truck’): 定义一个包含所有类别的列表。predict = torch.max(outputs, dim=1)[1].numpy(): 从模型的输出中找到最大值的索引,这对应于预测的类别。net.load_state_dict(torch.load(‘Lenet.pth’)): 从文件’Lenet.pth’中加载预训练的模型权重。原创 2024-02-28 09:26:02 · 479 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】Pytorch实现LeNet神经网络(2)train.py
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)): 对图像进行标准化,其中(0.5, 0.5, 0.5)是均值,(0.5, 0.5, 0.5)是标准差。在深度学习中,数据预处理是非常重要的步骤,包括图像大小调整、归一化等,torchvision.transforms提供了这些功能。transforms.ToTensor()将PIL图像或NumPy ndarray转换为torch.Tensor,并且会自动缩放图像的像素值到[0,1]之间。原创 2024-02-27 22:48:53 · 1183 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】Pytorch实现LeNet神经网络(1)
self.conv2 = nn.Conv2d(16, 32, 5)定义了第二个卷积层的操作,输入通道数是16,因为第一个卷积层的输出通道数是16,这一层的输出通道数是32,5*5的卷积核。self.conv1 = nn.Conv2d(3, 16, 5)调用nn.function的二维卷积函数,定义了第一个卷积层的操作,输入的通道数是3,输出通道数16,5*5的卷积核。self.pool1 = nn.MaxPool2d(2, 2)调用了最大池化函数,定义了第一个池化层的操作,池化窗口的大小是2*2。原创 2024-02-27 08:35:57 · 1328 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture11 Advanced_CNN 实现GoogleNet和ResNet
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture11 Advanced_CNN。Pytorch实现GoogleNet。Pytorch实现ResNet。原创 2024-02-25 13:55:52 · 403 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture10 Basic_CNN
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture10 Basic_CNN。原创 2024-02-25 11:16:33 · 495 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture09 Softmax多分类
【代码】【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture09 Softmax多分类。原创 2024-02-25 11:15:37 · 622 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture08数据集导入和构建
lecture08数据集导入和构建。原创 2024-02-22 16:35:29 · 276 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture07多维输入
lecture07多维输入。原创 2024-02-22 15:32:05 · 222 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture06 Logistic回归
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture06 Logistic回归。原创 2024-02-22 14:28:26 · 414 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture05 构建线性模型
lecture05 构建线性模型。原创 2024-02-22 13:16:57 · 441 阅读 · 2 评论 -
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture04反向传播
tensor里面既有data也有gradient。pytorch的机制是动态计算图,lecture04反向传播。原创 2024-02-21 22:58:01 · 296 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture03 梯度下降
B站刘二大人课程笔记整理lecture03 梯度下降。原创 2024-02-21 14:47:02 · 153 阅读 · 0 评论 -
【Pytorch深度学习开发实践学习】B站刘二大人课程笔记整理lecture02 线性模型
然后我们定义了一个线性模型,去预测y_pred,然后去计算MSE,我们在0-4.0之间用0.1间隔去搜索线性模型的参数,上面的代码定义了一个数据集,是一个2x3的列表。原创 2024-02-21 12:03:35 · 328 阅读 · 0 评论 -
在虚拟环境中生成requirement.txt
就可以生成requirement.txt了。安装pipreqs库。原创 2024-02-20 23:22:29 · 279 阅读 · 0 评论