![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
Pytorch框架(完结)
文章平均质量分 61
深度之眼的Pytorch框架第二期
oldmao_2000
人工不智能,机器不学习。
展开
-
21.循环神经网络
文章目录循环神经网络(RNN)是什么?RNN网络结构训练RNN实现人名分类本课程来自深度之眼deepshare.net,部分截图来自课程视频。循环神经网络(RNN)是什么?RNN:循环神经网络·处理不定长输入的模型·常用于NLP及时间序列任务(输入数据具有前后关系)RNN网络结构图片来源xt:时刻t的输入,shape=(1,57)st:时刻t的状态值,shape=(1,128)...原创 2019-12-11 12:36:42 · 330 阅读 · 0 评论 -
20.生成对抗网络
文章目录生成对抗网络(GAN)是什么?inferenceGAN网络结构如何训练GAN?训练DCGAN实现人脸生成Generator:卷积结构的模型Discriminator:卷积结构的模型本课程来自深度之眼deepshare.net,部分截图来自课程视频。Chloe H. 提供:GAN训练的tip,https://chloes-dl.com/2019/11/19/tricks-and-tip...原创 2019-12-10 12:38:13 · 875 阅读 · 0 评论 -
19.目标检测
文章目录图像目标检测是什么?模型是如何完成目标检测的?确定边界框数量N深度学习目标检测模型简介PyTorch中的Faster RCNN训练Faster RCNN结构分析代码分析1.features=self.backbone(images.tensors)2.proposals,proposal_losses=selfrpn(images,features,targets)3.detections...原创 2019-12-05 13:03:55 · 812 阅读 · 0 评论 -
18. 图像分类、分割
本课程来自深度之眼deepshare.net,部分截图来自课程视频。模型是如何将图像分类的?3-d张量>字符串过程(倒序来看)1.类别名与标签的转换labelname={“ants”:0,“bees”:1}2.取输出向量最大值的标号,predicted=torch.max(outputs.data,1)3.复杂运算outptus=resnet18(img_tensor)#img_...原创 2019-12-03 11:29:18 · 4344 阅读 · 0 评论 -
17.GPU的使用;PyTorch常见报错信息;小结
文章目录CPU与GPU数据迁移至GPU多GPU并行运算本课程来自深度之眼deepshare.net,部分截图来自课程视频。CPU与GPUCPU(Central Processing Unit,中央处理器):主要包括控制器和运算器GPU(Graphics Processing Unit,图形处理器):处理统一的,无依赖的大规模数据运算二者的结构图如下,可以看到绿色部分(计算单元)GPU明显...原创 2019-11-28 11:40:56 · 3494 阅读 · 0 评论 -
16.模型保存与加载、finetune
文章目录序列化与反序列化PyTorch中的序列化与反序列化模型保存与加载的两种方式模型断点续训练Transfer Learning & Model FinetunePyTorch中的Finetune本课程来自深度之眼deepshare.net,部分截图来自课程视频。序列化与反序列化把模型从内存保存到硬盘上的过程也成为序列化与反序列化,在内存中,模型中的数据或者程序是一个个的对象,而在...原创 2019-11-25 15:10:21 · 1044 阅读 · 0 评论 -
15.BN、LN、IN and GN
文章目录简介Batch Normalization 概念PyTorch的Batch Nomalzaton 1d/2d/3d实现1D2D3D常见的Normalizaton——BN、LN、IN and GN1.Layer Normalization2.Instance Normalization3.Group NormalizationNormalization小结作业:本课程来自深度之眼deeps...原创 2019-11-22 11:59:25 · 770 阅读 · 0 评论 -
14.正则化之weight_decay&Dropout
文章目录正则化与偏差方差分解Regularizationpytorch中的L2正则项-weight decay(权值衰减)Dropout概念nn.Dropout示例Dropout注意事项本课程来自深度之眼deepshare.net,部分截图来自课程视频。正则化与偏差方差分解RegularizationRegularization:减小方差(防止过拟合)的策略,先看下方差是什么东西。误差可...原创 2019-11-21 15:01:46 · 1022 阅读 · 0 评论 -
13.hook函数与CAM可视化
文章目录内容简介hook函数概念Tensor.register_hookModule.register_forward_hookModule.register_forward_pre_hookModule.register_backward_hookhook函数与特征图提取cAM(class activation map,类激活图)本课程来自深度之眼deepshare.net,部分截图来自课程视...原创 2019-11-21 12:06:41 · 674 阅读 · 0 评论 -
12.TensorBoard使用
文章目录内容简介SummaryWriteradd_scalar & add_histogram1.add_scalar()2.add_scalars()3.add histogram()4.add_image()torchvision.utils.make_grid模型指标监控add_image and torchvision.utils.make_gridAlexNet卷积核与特征图可视...原创 2019-11-15 19:58:59 · 470 阅读 · 0 评论 -
11.学习率调整策略;TensorBoard简介与安装
文章目录为什么要调整学习率?学习率调整pytorch的六种学习率调整策略class_LRScheduler1.StepLR2.MultiStepLR学习率调整小结本课程来自深度之眼deepshare.net,部分截图来自课程视频。为什么要调整学习率?学习率调整梯度下降:wi+1=wi−LR∗g(wi)w_{i+1}=w_i-LR*g(w_i)wi+1=wi−LR∗g(wi)学习率(...原创 2019-11-13 20:50:22 · 998 阅读 · 0 评论 -
10.优化器(下)
文章目录内容简介learning rate学习率Momentum动量torch.optim.SGDPyTorch的十种优化器本课程来自深度之眼deepshare.net,部分截图来自课程视频。内容简介learning rate学习率梯度下降的更新思想 :wi+1=wi−g(wi)w_{i+1}=w_i-g(w_i)wi+1=wi−g(wi)下面通过一个例子来观察梯度更新的过程:函...原创 2019-11-08 11:11:08 · 445 阅读 · 0 评论 -
09.14种损失函数(下);优化器(上)
文章目录内容简介损失函数5.nn.L1Loss&6.nn.MSELoss7、SmoothLlLoss8、PoissonNLLLoss9、nn.KLDivLoss10、nn.MarginRankingLoss11、nn.MultiLabelMarginLoss本课程来自深度之眼deepshare.net,部分截图来自课程视频。内容简介今天学习pytorch中剩下的14种损失函数;学习优...原创 2019-11-07 12:09:47 · 750 阅读 · 0 评论 -
08.权值初始化;损失函数(上)
文章目录内容概要权值初始化梯度消失与爆炸xavier方法与Kaiming方法xavier方法Kaiming方法常用初始化方法(十种四大类)损失函数损失函数概念损失函数是什么PyTorch的损失函数1、nn.CrossEntropyLoss2、nn.NLLLoss3、nn.BCELoss4、nn.BCEWithLogitsLoss本课程来自深度之眼deepshare.net,部分截图来自课程视频。...原创 2019-11-04 16:09:59 · 934 阅读 · 0 评论 -
07.nn网络层-卷积层-池化-线性-激活函数层
文章目录内容概要卷积层1d/2d/3d卷积卷积-nn.Conv2d()转置卷积-nn.ConvTransposenn.ConvTranspose2d池化层—Pooling Layernn.MaxPool2dnn.AvgPool2dnn.MaxUnpool2d线性层—Linear Layernn.Linear激活函数层——Activation Layernn.Sigmoidnn.tanhnn.ReL...原创 2019-10-31 21:54:16 · 1030 阅读 · 0 评论 -
深度之眼PyTorch训练营(第二期)笔记目录(已完结)
文章目录简介目录简介本期训练营来自深度之眼,以下为训练营PyTorch简介中摘录:1)上手快:PyTorch代码更简洁易读,实现时间短,只要了解它和机器学习的基础概念,就可以上手使用2)易调试:由于PyTorch采用动态图机制,使得调试它就像调试python一样简单3)资源多:非常干净、统一,文档化非常好,也没有大量重复的函数,目前arXiv中最新的算法大多都用pytorch实现,可以迅...原创 2019-10-30 08:55:55 · 5200 阅读 · 3 评论 -
06.模型创建步骤与nn.Module;模型容器与AlexNet构建
文章目录内容概要网络模型创建步骤nn.Module属性本课程来自深度之眼deepshare.net,部分截图来自课程视频。内容概要本节第一部分介绍网络模型的基本类nn.Module,nn.Module是所有网络层的基本类,它拥有8个有序字典,用于管理模型属性,本节课中将要学习如何构建一个Module。然后通过网络结构和计算图两个角度去观察搭建一个网络模型需要两个步骤:第一步,搭建子模块;第...原创 2019-10-29 21:06:31 · 1194 阅读 · 0 评论 -
05.transforms图像增强
文章目录内容概要数据增强Data Augmentationtransforms——裁剪1.transforms.CenterCrop2.transforms.RandomCrop3.RandomResizedCrop4.FiveCrop5.TenCroptransforms——翻转和旋转transforms——Flip3.RandomRotationtransforms——图像变换1.Pad2.C...原创 2019-10-24 20:43:10 · 2509 阅读 · 6 评论 -
04.DataLoader与Dataset;transforms与normalize
文章目录人民币二分类DataLoader与DatasetDataLoaderDatasetPyTorch数据读取机制transforms 运行机制transformstorchvision.transforms:常用的图像预处理方法数据标准化—transforms.normalize本课程来自深度之眼deepshare.net,部分截图来自课程视频。人民币二分类人民币看做自变量x,类别看做...原创 2019-10-21 14:35:01 · 2708 阅读 · 0 评论 -
03.autograd与逻辑回归
文章目录torch.autograd——自动求导系统torch.autograd.backwardtorch.autograd.gradautograd小贴士:逻辑回归机器学习模型训练步骤实例代码(略)本课程来自深度之眼deepshare.net,部分截图来自课程视频。在线LaTeX公式编辑器torch.autograd——自动求导系统torch.autograd.backward功能:...原创 2019-10-19 17:20:41 · 525 阅读 · 0 评论 -
02.张量操作与线性回归;计算图与动态图机制
文章目录张量的操作:拼接、切分、索引和变换一、张量拼接与切分1.1 torch.cat()不扩张张量的维度1.2 torch.stack()扩张张量的维度1.3torch.chunk()1.4 torch.split()二、张量索引2.1 torch.index_select()2.2 torch.masked_select()三、张量变换3.1 torch.reshape()3.2 torch....原创 2019-10-14 20:56:18 · 942 阅读 · 3 评论 -
01.PyTorch简介及环境配置;基础数据结构——张量
文章目录1.1.PyTorch简介PyTorch 发展PyTorch优点适合人群软件安装解释器与工具包虚拟环境(略)1.2.Anaconda安装1.3.Pycharm安装1.4.PyTorch安装2.1.Tensor概念Tensor与VariableTensor2.2.Tensor创建一:直接创建2.3.Tensor创建二:依据数值创建2.3.1torch.zeros()2.3.2 torch.o...原创 2019-10-13 20:45:13 · 1618 阅读 · 0 评论