pytorch深度学习
文章平均质量分 86
结合B站小土堆课程进行制作的pytorch深度学习笔记
优惠券已抵扣
余额抵扣
还需支付
¥19.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
-希冀-
心若有所向往,何惧道阻且长。
展开
-
深度学习笔记【订阅前必读】
pytorch深度学习(共计169页,基于本人听完B站小土堆PyTorch深度学习快速入门教程所写)发现这一份B站小土堆Pytorch深度学习笔记连985、211等高校同学都在使用(语雀在线版,笔记带评论)原创 2024-04-08 18:02:33 · 82 阅读 · 0 评论 -
Pytorch深度学习-----完整神经网络模型训练套路
定义适当的损失函数来计算模型预测结果于真实标签之间的差异。选择适当的优化器算法来更新模型参数,如随机梯度下降(SGD)、Adam等。使用torchvision库加载CIFAR10数据集。将训练集和测试集分别存放在train_data和test_data中。引用model.py文件,在其中创建名为"Lgl"的模型。定义损失函数为交叉熵损失(nn.CrossEntropyLoss)。定义优化器为随机梯度下降(SGD)优化器,并将模型参数传递给优化器。原创 2023-08-12 14:26:26 · 707 阅读 · 1 评论 -
数据集划分:手动划分文件夹中的图片数据集为训练集、验证集和测试集
ataset_folder表示原始图片数据集所在的文件夹路径,output_folder表示划分后的数据集存储的文件夹路径,train_ratio、val_ratio和test_ratio表示训练集、验证集和测试集所占比例。代码将会遍历读取文件夹中的图片文件,打乱后按照比例划分为训练集、验证集和测试集,并将划分后的图片文件移动到相应的文件夹中。手动划分文件夹中的图片数据集为训练集、验证集和测试集,即进行文件夹中的数据集(都是图片)进行划分。经过查看,文件夹里面的图像符合比例数量要求。原创 2023-11-06 23:53:25 · 853 阅读 · 1 评论 -
Pytorch深度学习-----完整的模型验证套路
return xLgl类定义了一个CNN,包含三个卷积层,接着是最大池化、展平操作以及两个线性层。该模型设计用于图像分类。原创 2023-12-31 23:39:58 · 1130 阅读 · 0 评论 -
使用labelme制作coco格式数据集和voc格式数据集
其中img表示图片以及使用labelme进行标记后json产生的图片所在的文件夹、voc是指的是转化为voc格式后的数据集我想保存的所在目录文件夹。这四个部分就是要更改的地方,输入图片路径、输出图片路径、标签、可视化,但是可视化可以不用管。在转coco数据集之前,需要进行检查自己当前环境下是否含有pycocotools这个库。在当前labelme2voc.py文件所在的文件夹下打开终端。,把这个项目复制到当前图片所在的文件夹下。打开,直接在当前环境下输入。打开图片所在的文件夹。打开labelme的。原创 2023-10-30 21:55:45 · 867 阅读 · 0 评论 -
Pytorch深度学习-----实现神经网络模型在GPU上进行训练的方法
在代码中,通过调用来指定使用GPU进行计算。这是一种通用的方式,可以让PyTorch自动选择当前系统中的可用GPU。如果系统中有多个GPU可用,PyTorch将默认使用第一个可用的GPU作为计算设备。如果你希望明确指定使用哪一块GPU,可以使用来指定使用第一块GPU,或者使用来指定使用第二块GPU,以此类推。通过这种方式,你可以明确指定使用哪一块GPU来进行计算。需要注意的是,具体的GPU编号取决于系统中GPU的配置和可用情况,可以通过运行来查看系统中可用的GPU数量以及它们的编号。原创 2023-08-13 17:58:04 · 2040 阅读 · 0 评论 -
Pytorch深度学习-----神经网络模型的保存与加载(VGG16模型)
torch.load()是PyTorch中用于加载保存的对象的函数,可以加载之前使用torch.save()保存的模型、张量、字典等。可以指定要加载的文件路径或文件对象,并可选地指定加载到的设备、反序列化模块等参数。原创 2023-08-09 22:35:27 · 853 阅读 · 0 评论 -
Pytorch深度学习-----现有网络模型的使用及修改(VGG16模型)
指定要加载的预训练权重。可以是None(默认值)表示不加载预训练权重,或是指定为预定义的某个预训练权重标识符。从上述运行结果可知:VGG16网络是由13层卷积层和3层全连接层组成,最后网络输出一共有1000个分类结果。由上述可以知道,add_linear是在classifier外面的,如果要在classifier里面,可以将。其它可选参数,传递给VGG-16模型的基类torchvision.models.VGG。指示下载进度条的显示设置,默认为True显示下载进度条。VGG-16是一种具有。原创 2023-08-09 18:30:49 · 611 阅读 · 0 评论 -
Pytorch深度学习-----优化器详解(SGD、Adam、RMSprop)
在PyTorch中,优化器(Optimizer)是用于`更新神经网络参数的工具`。它`根据计算得到的损失函数的梯度来调整模型的参数`,以`最小化损失函数并改善模型的性能`。即优化器是一种特定的`机器学习算法`,通常用于在训练深度学习模型时`调整权重和偏差`。是用于`更新神经网络参数`以最小化某个损失函数的方法。原创 2023-08-08 10:50:12 · 2683 阅读 · 0 评论 -
Pytorch深度学习-----损失函数(L1Loss、MSELoss、CrossEntropyLoss)
如果设置为 True,则对输入批次的输出进行减少,返回一个标量。如果设置为 False,则返回每个输入批次的输出的张量。如果设置为 True,则对输入批次的输出进行减少,返回一个标量。如果设置为 False,则返回每个输入批次的输出的张量。如果设置为 ‘mean’,则对输入批次的输出进行平均。如果设置为 ‘none’,则不进行减少,返回每个输入批次的输出的张量。如果设置为 ‘mean’,则对输入批次的输出进行平均。如果设置为 ‘none’,则不进行减少,返回每个输入批次的输出的张量。原创 2023-08-07 17:19:53 · 1871 阅读 · 0 评论 -
Pytorch深度学习-----神经网络之Sequential的详细使用及实战详解
"Sequential"是一个时序容器,可以将各种层按顺序添加到容器中,从而简化神经网络模型的搭建。它可以从头开始构建模型,也可以在其他容器(如Sequential、Functional、Subclass)中构建模型,还可以与其他容器组合使用。官网解释:官网的举例应用。原创 2023-08-03 19:30:57 · 2253 阅读 · 0 评论 -
Pytorch深度学习-----神经网络之线性层用法
其中最重要的三个参数为表示输入的特征值大小,即输入的神经元个数表示输出的特征值大小,即经过线性变换后输出的神经元个数bias,表示是否添加偏置。原创 2023-08-02 15:23:00 · 1904 阅读 · 0 评论 -
Pytorch深度学习-----神经网络之非线性激活的使用(ReLu、Sigmoid)
首先先查看官网对其解释:如下图所示可以见到有一个参数inplace,布尔类型,所以具有两种情况当inplace 为True时,会将输入数据进行替换;当inplace 为False时,输入数据不进行替换。即:input=-1 经过 Relu(input,inplace=True)后,input=0;input=-1 经过 Relu(input,inplace=False)后,input=-1;即将小于0的数据替换为0由官网的图像可以推测,Relu函数的表达式为。原创 2023-08-01 23:09:05 · 309 阅读 · 0 评论 -
Pytorch深度学习-----神经网络之池化层用法详解及其最大池化的使用
kernel_size:表示池化核的大小,类型为int 或者元组。stride=None:表示步长的大小,与卷积层不同,池化层步长大小默认为kernel_size的大小。padding=0:表示在输入图像外围增加一圈0,和前面卷积核一样。dilation=1:表示设置核的膨胀率,默认 dilation=1,即如果kernel_size =3,那么核的大小就是3×3。原创 2023-07-31 17:36:55 · 1713 阅读 · 0 评论 -
Pytorch深度学习-----神经网络之卷积层用法详解
从上述可知,总共有9个参数,具体解释如下:in_channels:表示输入的图片通道数目。out_channels:表示输出的图片通道数目。kernel_size:表示卷积核的大小,当卷积是正方形的时候,只需要一个整数边长即可,卷积不是正方形,要输入一个元组表示高和宽。stride:表示每次卷积核移动的步长值。padding:表示是否添加边界,一旦设置就是四周都添加。在原始的行列基础上,行增加2行,列增加2列。dilation:表示控制卷积核之间的间距。原创 2023-07-31 11:53:33 · 1158 阅读 · 0 评论 -
Pytorch深度学习-----神经网络的卷积操作
卷积操作是通过卷积核(也称滤波器)与输入数据进行。weight:卷积核 ,为tensor型,input:输入矩阵,为tensor型,dilation:控制卷积核之间的间距。groups:控制输入和输出之间的连接。padding:填充大小,默认为0。卷积操作是一种线性操作,通常。在图像处理中,卷积操作可以。stride:步长,默认为1。bias:即误差/偏差值。原创 2023-07-29 15:49:30 · 1343 阅读 · 0 评论 -
Pytorch深度学习-----神经网络的基本骨架-nn.Module的使用
nn.Module是nn中十分重要的类,原创 2023-07-27 23:56:15 · 1616 阅读 · 0 评论 -
Pytorch深度学习-----DataLoader的用法
组合了数据集(dataset) + 采样器(sampler),如果把Dataset比作一副扑克牌,则DataLoader就是每次手中处理的某一批扑克牌,然后每一批取多少张,总共能取多少批,用不用打乱顺序等,都可以在创建DataLoader时从参数自行设定。dataloader会将上面的img0……img3进行打包成imgs。- 如果为True会将数据放置到GPU上去(默认为false)在上述中共有15个参数,我们常用的有如下5个参数。– 表示每次从数据集中取多少个数据。– 表示要读取的数据集。原创 2023-07-27 11:30:34 · 1400 阅读 · 0 评论 -
Pytorch深度学习------torchvision中dataset数据集的使用(CIFAR10)
torchvision是pytorch的一个图形库,用来处理图像,主要用来构建计算机视觉模型。从下面的官网截图可以看到torchvision有很多模块,下面以dataset模块进行举例。torchvision中datasets包:用来进行数据加载,主要有以下几个模块CelebACIFARCityscapesCOCOCaptionsDetectionEMNISTFakeDataFlickrHMDB51ImageNetKMNISTLSUN。原创 2023-07-25 20:45:36 · 1610 阅读 · 0 评论 -
Pytorch深度学习------Torchvision中Transforms的使用(ToTensor,Normalize,Resize ,Compose,RandomCrop)
需要注意:compose中参数是前面的输出作为后面的输入,比如compose中第一个参数的输出是PIL类型,后面的输入也是PIL类型,所以可以直接使用compose,但是如果现在第一个的输出是tensor类型,但是第二个要求的输入是PIL,则会是类型不匹配,所以会报错。其次由上面的截图可以知道transforms就是一个.py文件,里面有很多的类以及方法,所以要先使用就必须通过.的形式去调用,如果要调用类,那就需要实例化,实例化后就是一个对象,对象就可以使用该类下的方法。,下面使用opencv。原创 2023-07-24 23:28:16 · 1669 阅读 · 0 评论 -
Pytorch深度学习------TensorBoard的使用
TensorBoard是一个工具,主要用于数据可视化,用大白话的语言来说就是可以记录在机器学习中表格数据、非表格数据(图片、文本、音频等)等变化,从而在模型中更直观的显示。原创 2023-07-22 23:11:14 · 4796 阅读 · 1 评论 -
Pytorch深度学习-----数据模块Dataset类
基于B站PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】课程进行学习总结。原创 2023-07-21 17:20:39 · 406 阅读 · 0 评论 -
PyTorch深度学习——Anaconda和PyTorch安装
在系统变量中添加进三个以上路径,其中D:\Users\lgl\anaconda3为刚才设置安装时选择的路径。在anaconda中创建虚拟环境的语法为:conda create –n 虚拟环境名字 python=版本。根据自己的电脑配置,选择是安装gpu版本还是cpu版本,gpu版本适用于电脑显卡是英伟达的。之后使用conda list进行查看是否安装成功。2.大量安装基于python的工具包。3.使用conda安装pytorch。选好后复制上面的指令进行安装下载即可。2.双击之后安装即可。原创 2023-07-15 15:04:55 · 729 阅读 · 1 评论