![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 92
从零开始学习pytorch
LGDDDDDD
这个作者很懒,什么都没留下…
展开
-
SSD pytorch训练自己的数据集(windows+colab)
SSD pytorch训练自己的数据集下载转换数据集使用Colab对于一个小白,想对自己数据的训练实在不容易,花了好几天时间,翻阅了很多资料,在此做个总结我的环境是windows+cpu,没有N卡!本文并将讲解用Colab进行训练默认已配置好Pytorch环境下载1、SSD pytorch代码下载https://github.com/amdegroot/ssd.pytorchgithub下载慢的话,可以在码云导入再下载2、VGG预训练模型下载(https://99baiduyun.com/fi原创 2020-05-27 10:28:35 · 2065 阅读 · 5 评论 -
pytorch detach() item() cpu() numpy()理解
在深度学习训练后,需要计算每个epoch得到的模型的训练效果的时候,一般会用到detach() item() cpu() numpy()等函数。例如import torch.optim as optimimport torch.utils.dataimport torch.backends.cudnn as cudnnfrom torch.autograd import Variable...转载 2020-04-27 23:58:14 · 7006 阅读 · 0 评论 -
Pytorch实现Fashion-mnist分类任务
Fashion_mnist分类任务数据概况数据处理对输入进行归一化数据增强定义Resnet网络训练与测试完整代码数据概况Fashion-mnist经典的MNIST数据集包含了大量的手写数字。十几年来,来自机器学习、机器视觉、人工智能、深度学习领域的研究员们把这个数据集作为衡量算法的基准之一。你会在很多的会议,期刊的论文中发现这个数据集的身影。实际上,MNIST数据集已经成为算法作者的必测的数...原创 2020-03-01 22:09:42 · 4599 阅读 · 1 评论 -
AlexNet、VGG、NiN、GoogLeNet
AlexNet与LeNet对比AlexNet模型构建与LeNet对比LeNet: 在大的真实数据集上的表现并不尽如⼈意。1.神经网络计算复杂。2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。机器学习的特征提取:手工定义的特征提取函数神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。AlexNet首次证明了学习到的特征可以超越⼿⼯设计的特征,...原创 2020-02-21 15:11:26 · 265 阅读 · 0 评论 -
LeNet-pytorch-FashionMNIST分类识别
LeNetLeNet模型构造读入数据和数据预览定义device定义网络计算准确率训练测试LeNet1、使用全连接层的局限性:图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。对于大尺寸的输入图像,使用全连接层容易导致模型过大。2、使用卷积层的优势:卷积层保留输入形状。卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸过大。LeNet...原创 2020-02-20 21:12:57 · 883 阅读 · 0 评论 -
pytorch_权值初始化
权值初始化梯度消失与爆炸梯度爆炸初始化网络权值方差梯度消失Xavier初始化(适用饱和函数)Kaiming初始化(适用于非饱和)十种初始化方法梯度消失与爆炸梯度爆炸要使网络输出不能太大不能太小初始化网络权值方差为了使输出方差为1,将网络权值的方差设为 def initialize(self): for m in self.modules(): ...原创 2020-02-10 11:55:43 · 807 阅读 · 0 评论 -
Pytorch池化层、线性层、激活函数层
层池化层最大池化、平均池化pytorch实现池化(下采样)最大池化平均池化pytorch实现反池化(上采样)最大值反池化线性层激活函数层sigmoidtanhrelu池化层最大池化、平均池化pytorch实现池化(下采样)最大池化冗余信息剔除、减小运算量平均池化相对于最大池池化的图像亮度较小pytorch实现反池化(上采样)最大值反池化img_reconstruct =...原创 2020-02-05 21:49:16 · 953 阅读 · 0 评论 -
pytorch卷积层
卷积层卷积卷积运算卷积维度nn的卷积操作nn.Conv2d尺寸变化:转置卷积尺寸计算卷积卷积运算卷积维度nn的卷积操作nn.Conv2d尺寸变化:转置卷积尺寸计算...原创 2020-02-05 14:45:31 · 193 阅读 · 0 评论 -
pytorch_nn.Module
nn.Module模型创建步骤torch.nnnn.Module属性模型容器nn.Sequentialnn.ModuleListnn.ModuleDict代码示例AlexNet模型创建步骤torch.nnnn.Module属性模型容器nn.Sequentialnn.ModuleListnn.ModuleDict代码示例import torchimport to...原创 2020-02-05 11:58:59 · 175 阅读 · 0 评论 -
pytorch_transform
transformsNormalize数据增强对训练集进行变换,使训练集更丰富,增强模型泛化能力裁剪中心裁剪原创 2020-02-02 11:28:05 · 536 阅读 · 0 评论 -
pytorch_Dataloader与Dataset
Dataloader与DatasetDataLoaderbatch_size、epoch、iteration关系Dataset数据读取机制DataLoaderbatch_size、epoch、iteration关系Dataset数据读取机制原创 2020-01-30 12:13:58 · 340 阅读 · 0 评论 -
pytorch自动求导与逻辑回归
自动求导与逻辑回归自动求导逻辑回归自动求导retain_graph设为True,可以进行两次反向传播逻辑回归import torchimport torch.nn as nnimport matplotlib.pyplot as pltimport numpy as nptorch.manual_seed(10)#========生成数据=============sa...原创 2020-01-23 13:54:17 · 252 阅读 · 0 评论 -
pytorch图
图计算图动态图计算图import torchw = torch.tensor([1.],requires_grad=True)x = torch.tensor([2.],requires_grad=True)a = torch.add(w,x)a.retain_grad()b = torch.add(w,1)y = torch.mul(a,b)y.backward()...原创 2020-01-22 08:49:13 · 107 阅读 · 0 评论