PyTorch
PyTorch从零开始的学习笔记
漆比特
意疏的博客
展开
-
深度之眼Pytorch打卡(十七):循环神经网络部件——RNN详细原理与pytorch的RNN层应用实例
前言 循环神经网络(Recurrent Neural Network,RNN)与卷积神经网络一样,都在深度学习中占有非常重要的地位。虽然先前笔记提到的全连接网络和卷积神经网络已经有很强的表示能力了,但由于网络结构的限制,它们只能处理定长的输入数据,并且由于有向无环的特点,它们只在意当前输入数据,而不考虑输入数据的顺序、以及前后数据是否有关联。而文本、语音和视频等数据,往往都是不定长的、并且前后数据相关性极大,一旦改变顺序,往往会失去原先的信息。所以需要一种考虑输入数据顺序,并且能够记忆以往数据信息的网原创 2020-09-20 16:56:37 · 1214 阅读 · 0 评论 -
深度之眼Pytorch打卡(十六):Pytorch卷积神经网络部件——池化、反池化与其他层
前言 前面两篇笔记写了卷积神经网络的两个部件,即卷积层与反卷积层,这篇笔记写池化层与反池化层。池化是一种很重要的下采样方法,它像水池一样汇集一个小区域加粗样式内的值,并总结浓缩成一个值输出,常用的有最大池化Maxpooling——选择最大值输出,和平均池化Average Pooling——取平均值作为输出。反池化,是一种和转置卷积类似的上采样方法,在...原创 2020-08-18 12:53:07 · 3313 阅读 · 0 评论 -
深度之眼Pytorch打卡(十五):Pytorch卷积神经网络部件——转置卷积操作与转置卷积层(对转置卷积操作全网最细致分析,转置卷积的stride与padding,转置与反卷积名称论证)
前言 原先是将这篇笔记和上一篇笔记合起来写的,但是由于内容很多,于是将卷积与转置卷积分作两篇。转置卷积(transposed convolution)是一种上采样技术,操作过程是卷积的反过程,也被称作反卷积(deconvolution),但它的操作结果不是卷积的逆。它也可以通过卷积操作来实现,只是需要将卷积核旋转180度。它主要应用在图像分割和超分辨率等任务中。笔记主要包括转置卷积操作和Pytorch转置卷积层。本笔记的知识框架主要来源于深度之眼,并依此作了内容的丰富拓展,拓展内容主要源自对torch原创 2020-08-16 12:09:39 · 1616 阅读 · 2 评论 -
深度之眼Pytorch打卡(十四):Pytorch卷积神经网络部件——卷积操作与卷积层(对卷积操作超细致动图分析,卷积转矩阵乘法分析)
前言 人每天处理的信号中,有超过70%的是视觉信号,所以视觉问题,包括分类,检测,分割、风格转换等等占了深度学习任务中的很大部分。而卷积神经网络是计算机视觉领域当之无愧的霸主。卷积神经网络是稀疏连接,并且权值共享的,参数比全连接要少非常多,所以完完全全可以用图像全像素作为输入,并且它比全连接网络更容易训练,且能做得更深。另外,卷积神经网络,浅层卷积提取简单特征,深层卷积提取复杂特征,还有感受野等设计都在一定程度上受大脑视觉皮层结构的启发1 ,所以它比较适合视觉任务。这篇笔记主要学习卷积神经网络的核心—原创 2020-08-06 12:04:18 · 2693 阅读 · 2 评论 -
深度之眼Pytorch打卡(十三):Pytorch全连接神经网络部件——线性层、非线性激活层与Dropout层(即全连接层、常用激活函数与失活 )
前言 无论是做分类还是做回归,都主要包括数据、模型、损失函数和优化器四个部分。数据部分在上一篇笔记中已经基本完结,从这篇笔记开始,将学习深度学习模型。全连接网络是最简单、最好理解的神经网络,于是便从这里开始。Pytorch中已经封装好了组成全连接神经网络的部件 ,即线性层与非线性激活层,如果模型只是单纯的线性层叠加,最后模型也是线性的,等价于只有一个线性层,加入非线性激活层才使得深度有了意义。...原创 2020-08-01 13:09:36 · 12328 阅读 · 1 评论 -
深度之眼Pytorch打卡(十二):Pytorch数据预处理——选择与自定义transforms(通过向图片上添加椒盐噪声、高斯噪声增来强数据的数据增强方法)
前言 这篇笔记继续学习pytorch的数据预处理方式transforms,前三篇笔记学习了transforms的使用流程,和各种方法实现。这篇笔记包括两个要点,第一是在已经选择好transforms方法,并且设置好参数数的前提下,如何在每次迭代的时候选择不同的transform方法或者使用不同的调用顺序,第二是如何自定义transforms方法。本笔记的知识框架主要来源于深度之眼,并依此作了内容的丰富拓展,拓展内容主要源自对torch文档的翻译理解,所用数据来源于网络。 数据预处理方法具体实现见:原创 2020-07-27 12:26:47 · 9636 阅读 · 2 评论 -
深度之眼Pytorch打卡(十一):Pytorch数据预处理——数据增强(下)
前言 这篇笔记继续上一篇笔记的内容,深入的学习了解Pytorch的各种数据增强方法,由于内容很多,所以分为了上下两篇。本笔记的知识框架主要来源于深度之眼,并作了一些相关的拓展,拓展内容主要源自对torch文档的翻译理解,所用数据来源于网络。...原创 2020-07-24 12:18:07 · 1816 阅读 · 0 评论 -
深度之眼Pytorch打卡(十):Pytorch数据预处理——数据统一与数据增强(上)
前言 本笔记续上一篇笔记,更加深入的学习pytorch的各种数据预处理方法,包括标准化、尺寸调整、随机裁剪、翻转等方法。本笔记的知识框架主要来源于深度之眼,并作了一些相关的拓展,拓展内容主要源自对torch文档的翻译理解,所用数据集来源于网络。...原创 2020-07-21 17:32:22 · 1565 阅读 · 0 评论 -
深度之眼Pytorch打卡(九):Pytorch数据预处理——预处理过程与数据标准化(transforms过程、Normalize原理、常用数据集均值标准差与数据集均值标准差计算)
前言 前段时间因为一些事情没有时间或者心情学习,现在两个多月过去了,事情结束了,心态也调整好了,所以又来接着学习Pytorch。原创 2020-07-17 17:17:23 · 3373 阅读 · 7 评论 -
新冠肺炎CT识别COVID-CT(二)| 深度之眼Pytorch打卡(八):新冠肺炎CT影像识别(二分类 | 逻辑回归)
前言 COVID-CT中把新冠肺炎CT识别,当做的一个二分类问题,即肺部CT中有新冠病毒和无病毒两种情况。作者给了一个用torchvision中DenseNet模型训练、验证和测试的代码,其中DenseNet是预训练好的,也给了一个完全自训练模型的训练、验证和测试的代码。作为初学者,本笔记主要是学习前者,后者以后再说吧。 原代码及数据地址:UCSD-AI4H/COVID-CT 数据...原创 2020-04-25 11:26:35 · 15853 阅读 · 63 评论 -
深度之眼Pytorch打卡(七):Pytorch数据读取机制,DataLoader()和Dataset
前言 无论是模型训练还是实际测试,数据读取都是第一步,因为深度学习说到底是由数据驱动的。如果有能够准确的读入数据的程序,后面再结合预处理、Pytorch中预训练的模型和优化器等就可以构建一个简易的用于预测的模型。Pytorch的数据读取的核心是DataLoader方法和Dataset类。本笔记的框架主要来源于深度之眼,并作了一些相关的拓展,拓展内容主要源自对torch文档的翻译理解。 ...原创 2020-04-21 18:58:17 · 2071 阅读 · 0 评论 -
深度之眼Pytorch打卡(六):将数据集切分成训练集、验证集和测试集的方法
前言 无论是模型训练还是实际测试,数据读取都是第一步,因为深度学习说到底是由数据驱动的。如果有能够准确的读入数据的程序,后面再结合Pytorch中预训练的模型,就可以构建一个简易的用于预测的模型。Pytorch的数据读取的核心是DataLoader和DataSet方法。本笔记的框架主要来源于深度之眼,并作了一些相关的拓展,拓展内容主要源自对torch文档的翻译理解。DataLoader...原创 2020-04-19 16:48:23 · 15441 阅读 · 17 评论 -
深度之眼Pytorch打卡(五):Pytorch计算图(动态图与静态图)与自动求导tensor.backgrad()
grpcio, markdown, pyasn1, rsa, pyasn1-modules, cachetools, google-auth, tensorboard-plugin-wit, urllib3, idna, chardet, requests, oauthlib, requests-oauthlib, google-auth-oauthlib, absl-py, werkzeug,...原创 2020-04-15 18:59:26 · 4475 阅读 · 0 评论 -
深度之眼pytorch打卡(四)| 台大李宏毅机器学习 2020作业(一):线性回归,实现多因素作用下的PM2.5预测(Pytorch版手写+nn.Linear())
前言 这里主要是用Pytorch重新写一下李宏毅机器学习的作业一,那里主要是用pandas和numpy来实现的。本文不再有太多原理或者数据集的分析,那两篇文字里都有,这里和这里,以下就是一次用Pytorch工具来做机器学习的一次笔记。https://blog.csdn.net/veritasalice/article/details/103890510...原创 2020-04-14 19:25:00 · 3242 阅读 · 8 评论 -
深度之眼Pytorch打卡(三):Pytorch张量操作(包括torch.stack()理解、广播(broadcastable)的理解)
前言原创 2020-04-11 16:54:02 · 1310 阅读 · 1 评论 -
深度之眼Pytorch打卡(二):Pytorch张量与张量的创建
前言概念 张量原创 2020-03-30 20:00:04 · 1979 阅读 · 1 评论 -
深度之眼PyTorch打卡(一):PyTorch简介及环境配置
222原创 2020-04-14 11:17:24 · 2339 阅读 · 1 评论