![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 79
Brignt_run
喜欢模式识别、图像处理和计算机视觉
展开
-
【深度之眼】Pytorch框架班第五期-Week9【任务1】第一节:对抗生成网络一瞥
Generative Adversarial NetsGAN: 生成对抗网络 —— 一种可以生成特定分布数据的模型GAN的训练训练目的1、对于D:对真样本输出高概率2、对于G:输出使D会给出高概率的数据监督学习训练模式step1: 训练D输入:真实数据加G生成的假数据输出:二分类概率step2: 训练G输入:随机噪声z输出:分类概率——D(G(z))DCGANGenerator:Discriminator...原创 2020-09-14 15:42:58 · 133 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week3【任务1】第一节:nn.Module与网络模型构建步骤
模型创建与nn.Module模型创建步骤nn.Module原创 2020-08-09 19:33:26 · 132 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week3【任务2】第一节:学习网络层中的卷积层
卷积层1d/2d/3d卷积卷积运算:卷积核在输入信号(图像)上滑动,相应位置上进行乘加卷积核:又称为滤波器,过滤器,可认为是某种模式,某种特征。卷积过程类似于用一个模板去图像上寻找与它相似的区域,与卷积核模式越相似,激活值越高,从而实现特征提取AlexNet卷积核可视化,发现卷积核学习到的是边缘,条纹,色彩这一些细节模式卷积维度:一般情况下,卷积核在几个维度上滑动,就是几维卷积卷积-nn.Conv2d()nn.Conv2dnn.Conv2d(in_channels, out_原创 2020-08-06 09:18:34 · 230 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week3【任务1】第二节:模型容器与AlexNet构建
模型容器与AlexNet构建模型容器(Containers)容器之Sequentialnn.Sequential是nn.module的容器,用于按顺序包装一组网络层,使这组网络层被看作为一个整体,可以看做成模型的一个子模块。class LeNetSequential(nn.Module): def __init__(self, classes): super(LeNetSequential, self).__init__() self.features =原创 2020-08-03 15:45:46 · 144 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week2【任务2】第二节:学会自定义transforms方法
transforms——图像变换1、Padtransforms.Pad(padding, fill=0, padding_mode='constant')功能:对图像边缘进行填充padding:设置填充大小当为a时,上下左右均填充a个像素当为(a,b)时,上下填充b个像素,左右填充a个像素当为(a,b,c,d)时,左上右下分别填充a,b,c,dpadding_mode:填充模式,有4种模式,constant、edge、reflect和symmetricfill:constant时,设置原创 2020-07-31 20:51:37 · 238 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week2【任务2】第一节:二十二种transforms数据预处理方法
transforms图像增强(一)数据增强数据增强又称为数据增广,数据扩增,它是对训练集进行变换,使训练集更丰富,从而让模型更具泛化能力。transforms——裁剪(transforms——Crop)1、transforms.CentorCrop功能:从图像中心裁剪图片size: 所需裁剪图片尺寸2、 transforms.RandomCroptransforms.RandomCrop(size,padding=None,pad_if_need=False,fill=0,p原创 2020-07-31 10:32:02 · 249 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week2【任务1】第二节:数据预处理transforms模块机制
图像预处理–transformstransforms 运行机制transformstorchvision.transforms:常用的图像预处理方法torchvision.datasets:常用数据集的dataset实现,MNIST, CIFAR-10,ImageNet等torchvision.model:常用的模型预训练,AlexNet, VGG,ResNet,GoogleNet等torchvision:计算机视觉工具包torchvision.transforms数据中心化数据标准化缩原创 2020-07-28 22:37:14 · 160 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week2【任务1】第一节:数据读取机制Dataloader与Dataset
人民币二分类机器学习模型训练步骤DataLoader 与 DatasetDataLoadertorch.utils.data.DataLoaderData(dataset, batch_size=1, shuffle=False, sampler=None, batch_sampler=None, num_workers=0, collate_fn=None, pin_memory=False, drop_list=False, timeout=0, w原创 2020-07-28 21:29:51 · 294 阅读 · 1 评论 -
【深度之眼】Pytorch框架班第五期-Week1任务1第二节:张量简介与创建
张量张量与矩阵、向量、标量的关系是怎么样的?标量(scalar)一个标量表示一个0维的数据,没有方向。向量(vector)向量是一个一维的数组,有一个方向,数据沿一个方向排列存放。矩阵(matrix)矩阵是一个二维数组,如灰度图像。有行和列两个维度,分别对应图像的高和宽。无法表示RGB图像。张量(tensor)张量是一个多维数组,它是标量、向量、矩阵的高维扩展。如RGB图像,第一个维度为图像的高,第二个维度为图像的宽,第三个维度为色彩通道。张量为一个多维数组。关系:标量是0阶张量原创 2020-07-27 16:40:18 · 185 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week1任务3第一节:autograd与逻辑回归
torch.autogradautograd-自动求导系统torch.autograd.backward(tensors, grad_tensors=None, retain_graph=None, create_graph=False)功能:自动求取梯度tensors: 用于求导的张量, 如lossretain_graph: 保存计算图create_graph: 创建导数计算图,用于高阶求导grad_tensors: 多梯度权重retain_graphimport torchimp原创 2020-07-24 18:28:54 · 273 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week1任务2第二节:计算图与动态图机制
计算图与动态图机制计算图计算图是用来描述运算的有向无环图计算图有两个主要元素:节点(Node)和边(Edge)节点表示数据, 如向量, 矩阵, 张量,边表示运算, 如加减乘除卷积等用计算图表示: y=(x+w) * (w + 1)a = x + wb = w + 1y = a * b计算图与梯度求导y = (x + w) * (w + 1)a = x + wb = w + 1y = a * by对w求导:叶子节点: 用户创建的节点称为叶子节点,如w和xis_leaf:原创 2020-07-23 22:13:32 · 224 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-深度之眼Week1任务2第一节:张量操作与线性回归
张量操作与线性回归张量的操作:拼接、切分、索引和变换一、张量的拼接与切分1.1 torch.cat(tensors, dim=0, out=None)功能:将张量按维度dim进行拼接tensors: 张量序列dim: 要拼接的维度1.2 torch.stack(tensors, dim=0, out=None)功能:在新创建的维度dim上进行拼接tensors: 张量序列dim: 要拼接的维度1.3 torch.chunk(input, chunks, dim=0)功能: 将原创 2020-07-23 21:25:23 · 273 阅读 · 0 评论