![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 59
算法黑哥
喜欢算法,善于思考
展开
-
Linux服务器上搭建深度学习环境(安装anaconda、创建虚拟环境、安装pytorch)
Linux上搭建深度学习原创 2024-04-08 14:34:05 · 535 阅读 · 0 评论 -
预训练模型的使用torchvision.model和timm
当使用torchvision.models中的模型时,通常会加载预训练的权重,这些权重是在ImageNet上训练得到的。除了加载并使用预定义的模型,timm还提供了其他的功能,如自定义模型、模型集成、模型骨干架构提取等。通过上述代码,您可以方便地查看timm库中包含的所有模型,并选择最适合您项目需求的模型来进行使用。总而言之,timm是一个很有用的工具,可以帮助你快速实现各种计算机视觉任务,同时提供了丰富的模型选择和预训练权重。通过这种方式,您可以加载自己的模型权重而不使用预训练的权重。原创 2024-03-06 08:46:09 · 996 阅读 · 0 评论 -
pytorch 深度学习之余弦相似度
pytorch实现余弦相似度原创 2023-11-15 21:32:38 · 2066 阅读 · 1 评论 -
pytorch模型保存与加载(保存最优参数)
保存最优的参数来预测原创 2023-01-04 23:42:41 · 3407 阅读 · 0 评论 -
pytorch微调与迁移学习
迁移学习+微调 来提升模型精度原创 2023-01-04 21:27:58 · 204 阅读 · 0 评论 -
pytorch数据dataset的三种读取方式
数据集的三种读取方式原创 2023-01-04 19:44:58 · 1030 阅读 · 0 评论 -
pytorch显示一批图像数据的2种方法
pytorch 库 torchvision 带的make_grid()原创 2022-12-31 11:15:44 · 202 阅读 · 0 评论 -
pytorch深度学习常用命令
data 跟detach()这两个方法都可以用来从原有的计算图中分离出某一个tensor,有相似的地方,也有不同的地方,下面来比较性的看一看。PyTorch0.4以及之后的版本中,.data 仍保留,但建议使用 .detach()torch.Tensor.detach()是新版本中可以用来替换data的方法,而且比data要更安全。将字典变成列表的形式。原创 2022-12-26 20:12:40 · 541 阅读 · 0 评论 -
pytorch中None的用法,以及如何理解多维数组
None的用法参考此处该图片是自己练习 并总结原创 2022-12-19 20:04:49 · 424 阅读 · 0 评论 -
pytorch中type_as的用法
将a的数据类型 变成跟b一样的类型。原创 2022-12-19 15:58:29 · 430 阅读 · 0 评论 -
model.train和model.eval之Batch Normalization 和 Dropout
的作用是启用和。如果模型中有BN层()和Dropout,需要在训练时添加model.train()。model.train()是保证BN层能够用到每一批数据的均值和方差。对于Dropout,model.train()是随机取一部分网络连接来训练更新参数。原创 2022-12-14 17:12:26 · 681 阅读 · 0 评论 -
图像数据增强的方法(pytorch实现)
从上面可以看出,对于训练集,不做数据增强跑 10 次,准确率已经到了 95%,而使用了数据增强,跑 10 次准确率只有 75%,说明数据增强之后变得更难了。而对于测试集,使用数据增强进行训练的时候,准确率会比不使用更高,因为数据增强提高了模型应对于更多的不同数据集的泛化能力,所以有更好的效果。原创 2022-12-08 20:18:36 · 2959 阅读 · 1 评论 -
pytorch如何批处理
同时对于Windows平台下不要使用多个子进程加载数据,否则会报错,Windows平台下多线程有点问题,具体原因不好说。在处理数据的过程中,为了使得整个网络有着更好的学习效果并且不会有过多的资源的浪费,所以有批处理的概念,具体的原理不多说,直接上代码。我们设置BATCH_SIZE = 5,在不同的训练任务中可以根据自己的需求或者硬件的需求进行设置,较为常见的为8,16等.,前者提供了数据集的大小,后者支持整数索引,范围从0到len(self)。通过批处理,来输出每一批的数据,来达到直观的效果。......原创 2022-08-06 17:33:10 · 663 阅读 · 0 评论 -
pytorch神经网络极简入门(分类)
pytorch神经网络极简入门(分类)原创 2022-07-19 08:41:08 · 362 阅读 · 0 评论 -
Pytorch神经网络极简入门(回归)
意思是把梯度置零,也就是把loss关于weight的导数变成0,即将梯度初始化为零(因为一个batch的loss关于weight的导数是所有sample的loss关于weight的导数的累加和);采用随机梯度下降进行训练,损失函数采用常用的均方损失函数,设置学习率为0.1,可以根据需要进行设置,原则上越小学习越慢,但是精度也越高,然后进行迭代训练(这里设置为5000次).是一个实现了各种优化算法的库。为了更好的看出生成的数据类型,我们采用将生成的数据plot出来。的参数选项,比如学习率,权重衰减,等等。..原创 2022-07-15 11:39:24 · 3056 阅读 · 0 评论