![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
文章平均质量分 74
knighthood2001
这片绿茵从不缺乏天才,努力才是最终的入场券!
公众号:认知up吧
文章底部:商务合作|技术交流
展开
-
新手如何配置运行yolov5环境
一般来说,运行yolo环境,都是用的anaconda创建的虚拟环境,如果你需要将anaconda安装的虚拟环境从c盘移动到其他盘,你可以看这篇文章。接着,你需要进行安装pytorch,可以看我这一篇,使用pip安装。以上最基础的准备工作做好后,你可以安装yolov5环境中需要的包。当这些都能成功运行后,你环境就配好了。然后你就可以在终端使用这个命令。代码会去给你下载权重文件。原创 2024-07-10 16:58:12 · 248 阅读 · 0 评论 -
anaconda安装pytorch
早间听闻conda安装会出错误,果然,那我就选择pip安装吧。首先,pytorch库挺大的,建议你更换源。然后我去pytorch官网上找对应命令。使用pip list查看一下库。原创 2024-07-10 16:08:12 · 163 阅读 · 0 评论 -
基于flask的猫狗图像预测案例
📚✨🎃假设,你有模型,有训练好的模型文件,有模型推理代码,就可以把他放到flask上进行展示。原创 2024-07-08 22:58:47 · 631 阅读 · 0 评论 -
Pytorch模型的推理如何编写-以猫狗分类为例
📚✨🎃。原创 2024-07-08 15:45:40 · 157 阅读 · 0 评论 -
Pytorch模型的测试如何编写
如果你从前面的文章,一直看过来,我相信,这里你也是一下就能理解的。原创 2024-07-08 15:37:00 · 317 阅读 · 0 评论 -
Pytorch测试数据集的加载
这块内容在前文讲过了,这里补充几个点。原创 2024-07-08 15:03:41 · 245 阅读 · 0 评论 -
猫狗图像分类-划分数据集
首先,我们的数据如下,猫和狗的图片在里面,但是没有划分过训练集和测试集。运行下面这个代码,就能把数据划分。这样数据集就划分好了。划分好的数据集如下图。原创 2024-07-06 08:43:29 · 234 阅读 · 0 评论 -
数据集归一化处理
📚✨🎃。原创 2024-07-06 09:27:45 · 1039 阅读 · 0 评论 -
模型训练结果可视化
📚✨🎃上文,我们返回的这样的一个数据。接着,我们需要对其进行可视化。原创 2024-07-08 14:49:34 · 875 阅读 · 0 评论 -
Pytorch模型训练函数如何编写
首先,我们定义这样的一个函数,用来表示训练模型。其中,参数model (nn.Module): 待训练的模型train_dataloader (DataLoader): 训练集的数据加载器val_dataloader (DataLoader): 验证集的数据加载器num_epochs (int): 训练轮数返回pd.DataFrame: 包含训练过程中各指标的DataFrame,包括epoch、训练集损失、验证集损失、训练集准确率、验证集准确率,这个可以用来具体的绘图。原创 2024-07-08 14:27:30 · 864 阅读 · 0 评论 -
处理训练和验证数据集
我在前文也讲过了,这里为什么需要用到round()函数,是因为原始数据被分割为训练集和验证集时,得确保分割长度的总和等于数据集的长度。round函数是用来四舍五入的,而不是都是往下取整。然后,图像被调整到224x224的大小,然后转换为PyTorch的Tensor格式,最后应用之前定义的归一化操作。在我的文章:Pytorch的ImageFolder数据加载器 中讲过了。接着,使用DataLoader类去创建数据加载器,方便后续训练的时候用。首先,归一化操作的目的是使得神经网络训练的更好。原创 2024-07-08 11:26:24 · 318 阅读 · 0 评论 -
Pytorch中的DataLoader类
如果你的数据需要特定的处理或转换,可以使用collate_fn参数传递一个函数来自定义数据加载时的操作。例如,如果你的数据集包含不同长度的序列,可以在collate_fn中进行填充或截断操作,确保每个批次的数据具有相同的长度。DataLoader是 PyTorch 中一个重要且实用的工具,它简化了数据加载和批处理过程,帮助你更高效地训练神经网络模型。通过合理配置batch_sizeshuffle和参数,可以优化数据加载过程,提升训练效率和模型性能。原创 2024-07-08 11:24:10 · 618 阅读 · 0 评论 -
Pytorch中的torch.utils.data.random_split函数
📚✨🎃在 PyTorch 中,,它用于(或测试集)。这个函数通常用于处理 PyTorch 中的数据加载器(),例如中的数据集或自定义的数据集。原创 2024-07-08 11:19:04 · 383 阅读 · 0 评论 -
Pytorch的ImageFolder数据加载器
📚✨🎃今天来看一下。原创 2024-07-08 11:05:12 · 913 阅读 · 0 评论 -
Pytorch中的一些函数参数讲解
在这个示例中,我们首先创建了一个大小为 (1, 3, 10, 10) 的输入特征图,其中 1 表示批量大小,3 表示通道数,10x10 表示特征图的高度和宽度。表示使用原地操作执行 ReLU 激活函数,即直接在输入张量上执行 ReLU 操作,并修改输入张量本身,而不是创建一个新的张量来存储结果。在深度学习中,上采样通常用于将低分辨率的特征图恢复到原始输入图像的分辨率,或者增大图像以便进行后续的处理。(输出张量):可选参数,用于指定输出张量。(默认情况),则会创建一个新的张量来存储操作的结果,并将其返回。原创 2024-05-17 10:41:35 · 1584 阅读 · 1 评论 -
张量堆叠函数torch.stack()
接受一个张量序列作为输入,并在指定的维度上堆叠这些张量,生成一个新的张量。在这个过程中,要求所有的输入张量的形状必须是一致的,除了沿着堆叠维度的尺寸之外。新生成的张量的形状将会在指定的维度上增加一个维度。是 PyTorch 中用于在一个新的维度上堆叠张量序列的函数。当你有多个张量,想要将它们按照某个维度进行堆叠时,就可以使用。,其中第一个维度是堆叠维度,表示堆叠后的张量序列的数量。举个例子,假设有两个形状相同的张量。原创 2024-04-23 00:59:08 · 396 阅读 · 0 评论 -
Unet网络架构讲解(从零到一,逐行编写并重点讲解数据维度变化)
Unet网络架构从零到一复现原创 2024-04-23 00:55:51 · 13390 阅读 · 24 评论 -
深度学习VGG16网络构建(Pytorch代码从零到一精讲,帮助理解网络的参数定义)
很多时候,对于一些网络结构,我们总是会看到其对应的图片,但是代码部分,讲的人不是很多。比如,下面这两张图片,就是讲解VGG16的博客或者视频中经常能够看到的。下面这张图片的D类型是VGG16架构,E类型是VGG19初次见到这种图片,其实不是特别清楚,就导致很多人对网络结构其实不是那么清楚。比如,conv3-64是啥意思等等。因此,我接下来打算使用pytorch代码进行讲解。尤其是对于构造网络时候的参数,需要一步一步计算后,才会有比较清晰的理解。希望我的讲解能够帮助大家入门神经网络的网络构建。原创 2024-04-20 08:54:51 · 2754 阅读 · 10 评论 -
Pytorch神经网络-元组/列表如何喂到神经网络中
如果你想要将 b 转换为二维张量,可以使用 b.view(1, -1) 方法,这样 b 就会变成一个包含一个行和两列的二维张量。这里的-1表示的就是,系统会根据总的数据数以及其他维度需要的数量,然后计算出-1所在的维度的数量。经过我的一点点测试,发现好像pytorch中好像只能输入tensor格式的数据,而不能是tuple或者list数据类型。接下来我定义了一些数据类型,比如a是元组,c是列表,b和d都是经过转换成tensor张量格式的数据。从中我们可以看出来,b和d都是包含两个数据的一维张量。原创 2024-03-21 20:27:45 · 1560 阅读 · 1 评论 -
如何查看mnist数据集的图片
【代码】如何查看mnist数据集的图片。原创 2024-03-13 22:14:14 · 916 阅读 · 1 评论 -
深入浅出Pytorch宝典1.0
深入浅出Pytorch宝典原创 2024-01-15 20:31:29 · 695 阅读 · 0 评论