![](https://img-blog.csdnimg.cn/20190927151124774.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
Pytorch
文章平均质量分 66
Pytorch
迪菲赫尔曼
图像算法工程师,YOLOv8项目贡献者(7次)。订阅专栏提供 YOLOv5-Magic/YOLOv8-Magic 私域代码框架!
本人所有专栏改进都包含完整代码和详细步骤教程,订阅改进专栏的同学提供答疑服务,随时私信交流,欢迎订阅我的专栏~
本人只有CSDN一个渠道,之前发的文章也同步更新中~
展开
-
Pytorch教程[01]张量操作
一、张量拼接与切分1.1 torch.cat()功能:将张量按维度dim进行拼接• tensors: 张量序列• dim : 要拼接的维度torch.cat(tensors, dim=0, out=None)1.2 torch.stack()功能:在新创建的维度dim上进行拼接• tensors:张量序列• dim :要拼接的维度torch.stack(tensors, dim=0, out=None)1.3 torch.chunk()功能:将原创 2022-03-11 15:45:09 · 877 阅读 · 0 评论 -
Pytorch教程[02]DataLoader与Dataset
机器学习模型训练步骤一.DataLoadertorch.utils.data.DataLoader()功能:构建可迭代的数据装载器• dataset: Dataset类,决定数据从哪读取及如何读取• batchsize : 批大小• num_works: 是否多进程读取数据• shuffle: 每个epoch是否乱序• drop_last:当样本数不能被batchsize整除时,是否舍弃最后一批数据DataLoader( dataset, batch_size=1, sh原创 2022-03-11 17:05:02 · 1662 阅读 · 2 评论 -
Pytorch教程[03]transforms
一.torchvision:计算机视觉工具包torchvision.transforms : 常用的图像预处理方法torchvision.datasets : 常用数据集的dataset实现,MNIST,CIFAR-10,ImageNet等torchvision.model : 常用的模型预训练,AlexNet,VGG, ResNet,GoogLeNet等二.数据增强数据增强又称为数据增广,数据扩增,它是对训练集进行变换,使训练集更丰富,从而让模型更具泛化能力三.transformsto原创 2022-03-11 17:29:12 · 4924 阅读 · 5 评论 -
Pytorch教程[04]torch.nn---Containers
一、模型创建步骤二、构建模型两要素三、torch.nn模块nn.Module• parameters : 存储管理nn.Parameter类• modules : 存储管理nn.Module类• buffers:存储管理缓冲属性,如BN层中的running_mean• ***_hooks:存储管理钩子函数self._parameters = OrderedDict()self._buffers = OrderedDict()self._backward_hooks = Order.原创 2022-03-11 21:53:14 · 1849 阅读 · 0 评论 -
Pytorch教程[05]torch.nn---卷积、池化、线性、激活函数层
浅析pytorch卷积、池化、线性、激活函数层主要方法原创 2022-03-12 11:45:35 · 1085 阅读 · 0 评论 -
Pytorch教程[06]权值初始化
背景知识神经网络的训练过程中的参数学习是基于梯度下降法进行优化的。梯度下降法需要在开始训练时给每一个参数赋一个初始值,因此权重初始化的选取十分的关键,设定什么样的初始化方法关系到模型能否成功学习。那么如果我们把权重初始值全部设置为0,会怎样???通常来说,把权值初始值设置成0,不是一个理性的选择,因为实际上如果初始化为0的话,模型将无法学习。因为如果参数都为0,在第一遍前向计算时,所有的隐层神经元的激活值都相同。这样会导致深层神经元没有区分性。这种现象也称为对称权重现象。因此为了打破这个现象,比较好的方式原创 2022-03-12 12:18:35 · 1742 阅读 · 0 评论 -
Pytorch教程[07]损失函数
一.损失函数概念损失函数(loss function):衡量模型输出与真实标签的差异也叫代价函数(cost function)/准则(criterion)/目标函数(objective function)/误差函数(error function)名字有很多,其实都是一个东西二.Pytorch内置损失函数1、nn.CrossEntropyLoss功能: nn.LogSoftmax ()与nn.NLLLoss ()结合,进行交叉熵计算主要参数:• weight:各类别的loss设置权值• i原创 2022-03-12 13:15:46 · 3272 阅读 · 0 评论 -
Pytorch教程[08]优化器
一.什么是优化器pytorch的优化器:管理并更新模型中可学习参数的值,使得模型输出更接近真实标签导数:函数在指定坐标轴上的变化率方向导数:指定方向上的变化率梯度:一个向量,方向为方向导数取得最大值的方向二.optimizer的属性基本属性• defaults:优化器超参数• state:参数的缓存,如mom en tum的缓存• params_groups:管理的参数组• _step_count:记录更新次数,学习率调整中使用class Optimizer(object): de原创 2022-03-12 13:43:21 · 644 阅读 · 1 评论 -
Pytorch教程[09]Tensorboard
TensorBoard:TensorFlow中强大的可视化工具一.SummaryWriter功能:提供创建event file的高级接口主要属性:• log_dir:event file输出文件夹• comment:不指定log_dir时,文件夹后缀• filename_suffix:event file文件名后缀from torch.utils.tensorboard import SummaryWriterimport numpy as npwriter = SummaryWrit原创 2022-03-12 15:05:59 · 442 阅读 · 2 评论 -
Pytorch教程[10]完整模型训练套路
手把手教你从0开始训练神经网络原创 2022-03-23 11:36:30 · 3502 阅读 · 0 评论 -
VGG16网络结构复现(Pytorch版)
VGG16 Pytorch复现原创 2022-06-01 15:40:41 · 827 阅读 · 0 评论 -
Darknet53网络结构复现(Pytorch版)
Yolov3主干网络结构复现原创 2022-05-29 00:35:11 · 706 阅读 · 0 评论 -
ShuffleNet v2网络结构复现(Pytorch版)
pytorch复现ShuffleNetv2原创 2022-08-01 21:22:44 · 1989 阅读 · 0 评论