深度学习pytorch
文章平均质量分 86
咯吱咯吱咕嘟咕嘟
兵来将挡水来土掩
展开
-
pytorch 配置deformabledetr和referformer工程环境踩坑
pytorch 配置工程环境踩坑原创 2022-10-30 22:06:38 · 2452 阅读 · 4 评论 -
【PyTorch深度学习实践】学习笔记 第十节 卷积神经网络
课程链接PyTorch深度学习实践第十节课程。go go go~!卷积神经网络的基础知识中介绍了卷积核、池化等情况。简言之,我认为卷积是用来帮助我们提取特征的,但最终都要进入全连接层,代码import torchfrom torchvision import transformsfrom torchvision import datasetsfrom torch.utils.data import DataLoaderimport torch.nn.functional as Fim原创 2022-02-27 23:33:39 · 799 阅读 · 0 评论 -
【PyTorch深度学习实践】第九节 变量分析 手写数字图像多分类
占坑~初学习,为了能以后更灵活的为自己所用,而不是想当然的去理解的话,一定要通过debug切实的看一看:1、程序运行的逻辑2、单步执行时各变量的内容,变化 等等,我个人认为这是一种积累,一定会有帮助的。加油!~完整程序及相关原理见第九节 实践篇 手写数字图像多分类未完待续 明天继续 一定整理完 卷积神经网络。冲啊,flag不能倒。等待整理中变量分析分类任务中的target理解onehot编码by 小李如果你坚持到这里了,请一定不要停,山顶的景色更迷人!好戏还在后面呢。加油!欢迎交原创 2022-02-19 18:02:33 · 715 阅读 · 0 评论 -
【PyTorch深度学习实践】学习笔记 第九节 实践篇 手写数字图像多分类
课程链接PyTorch深度学习实践第九节课程。go go go~!原理介绍在前面第六讲时,介绍过了可以将逻辑回归看做是仅含有一层神经元的单层的神经网络。一般用于二分类网络,线性可分的情况时是一个线性模型,激活函数为Sigmoid。在这里将引入更加令人激动的概念——多分类softmax分类器、交叉熵、通道等。1、 在二分类时,为了映射到0-1时,在线性模型输出后加了激活函数。而softmax的输入不需要再做非线性变换,也就是说softmax之前的不再需要激活函数(这里用的relu ,可见Si原创 2022-02-19 18:00:08 · 1091 阅读 · 0 评论 -
PyTorch 详细常用图像数据集加载及预处理(三种)
前言:from torch.utils.data import Datasetfrom torch.utils.data import DataLoaderimport torchvision.transforms as transforms1、Dataset 在 torch.utils.data2、无论是加载文本还是图像数据集,加载自定义数据集还是特殊格式还是加载官方提供的数据集都需要他。 DataLoader 在3、torch.utils.data 不管是文本还是图片都用这个包。 对图像原创 2022-02-19 15:14:23 · 12072 阅读 · 8 评论 -
【PyTorch深度学习实践】学习笔记 数据集的加载Dataset和DataLoader原理
简而言之,这俩就是自动帮我们取数据,避免了接触底层代码1、前言机器学习模型训练五大步骤;第一是数据,第二是模型,第三是损失函数,第四是优化器,第五个是迭代训练过程。这里主要学习数据模块当中的数据读取,数据模块通常还会分为四个子模块:数据收集、数据划分、数据读取、数据预处理。在进行实验之前,需要收集数据,数据包括原始样本和标签;有了原始数据之后,需要对数据集进行划分,把数据集划分为训练集、验证集和测试集;训练集用于训练模型,验证集用于验证模型是否过拟合,也可以理解为用验证集挑选模型的超参数,测试集原创 2022-02-18 16:01:18 · 2509 阅读 · 5 评论 -
PyTorch深度学习实践 系列学习笔记小结
本系列从梯度下降开始到卷积神经网络结束。写这个小结作为该系列课程快速回忆核心要点的一个笔记,帮助自己(习惯性输出后脑袋变空,遗忘严重orz)以后再复习,也希望能帮助到正在学习这个课程或同样复习的小伙伴。温故而知新哇!通过再次复习回忆该课程的笔记,越发佩服刘二大人的思路,太条理清晰啦!学习的内容真的是一个循序渐进的过程。我是一个初出茅庐的小白,即将踏上未知的科研道路。以后希望能从事算法岗,目前我的学习的思路是,先会用,熟练的用!才能在有了自己的idea之后,随心所欲、游刃有余设计自己的方法,训练模原创 2022-02-18 13:42:50 · 446 阅读 · 0 评论 -
【PyTorch深度学习实践】学习笔记 第八节 序 文本数据集的加载
课程链接PyTorch深度学习实践第八节课程。go go go~!这一讲将介绍非常重要的加载数据集的相关知识,加油·~~!学习到这里你应该非常激动,因为学会他们之后,马上你就能独自探索深度学习项目实践的世界了!!介绍:1、DataSet 是抽象类,不能实例化对象,主要是用于构造我们的数据集. 只能通过自定义一个class, 然后调用。就像前面torch.nn.Moduleclass LinearModel ( torch.nn.Module ):def _init_ (self):pass原创 2022-02-18 10:51:09 · 1188 阅读 · 0 评论 -
【PyTorch深度学习实践】学习笔记 第七节 多维特征数据的处理
课程链接PyTorch深度学习实践第七节课程。go go go~!通过前几期视频的学习,我们知道了关于一维特征的输入的二分类(也就是x只有一个列向量)应该如何处理了。但事情往往并不那么简单。比如下图这个预测一个人在一年之后得糖尿病的概率的例子,这个时候我们的输入将会有很多的指标。你可以把它看成是我们体检的各种值。最后一排的y代表了他是否会得糖尿病。那么多维的特征输入应该怎么办呢?我们就需要把每一个特征x给以相应的权重。在进行逻辑回归时,把每一个维度的x乘相应的权值的和加上一个偏置量,送入sigmoi原创 2022-02-17 11:14:04 · 1008 阅读 · 0 评论 -
【PyTorch深度学习实践】学习笔记 第六节 逻辑回归 二分类
课程链接PyTorch深度学习实践第六节课程。gogogo !说明:从训练角度:1、 逻辑斯蒂回归和线性模型的明显区别是在线性模型的后面,添加了激活函数(非线性变换),进行了0到1的映射,y_pred变成了概率的分布。从损失函数角度:2、分布的差异:KL散度,cross-entropy交叉熵(在第九讲会介绍,坚持哦!)。这个式子很好理解。y_pred经过sigmoid映射后,在0~1变成概率分布。如表格,y_pred越接近真实值y,则loss越小。(在第九讲会涉及one-hot概念)下面来看原创 2022-02-16 16:20:30 · 374 阅读 · 0 评论 -
【PyTorch深度学习实践】学习笔记 第五节 线性回归
课程链接PyTorch深度学习实践第五节课程。go go go~!首先回忆一下深度学习熟悉的配方,老四样:1、prepare dataset2、design model using Class # 目的是为了前向传播forward,即计算y_hat(预测值)3、Construct loss and optimizer (using PyTorch API) 其中,计算loss是为了进行反向传播,optimizer是为了更新梯度。4、Training cycle (forward,backwar原创 2022-02-16 15:23:40 · 566 阅读 · 0 评论 -
pytorch 之 batchsize与epoch的关系
随机梯度下降随机梯度下降(Stochastic Gradient Descent,简称SGD)是一种用于训练机器学习算法的优化算法,最值得注意的是深度学习中使用的人工神经网络。该算法的工作是找到一组内部模型参数,这些参数在某些性能测量中表现良好,例如对数损失或均方误差。优化是一种搜索过程,您可以将此搜索视为学习。优化算法称为“ 梯度下降 ”,其中“ 梯度 ”是指误差梯度或误差斜率的计算,“下降”是指沿着该斜率向下移动到某个最小误差水平。该算法是迭代的。这意味着搜索过程发生在多个不连续的步骤上,每个步骤原创 2022-02-16 14:58:09 · 6707 阅读 · 0 评论 -
pytorch 之tensor的基础知识
一、 PyTorch中,Tensor和tensor首先,我们需要明确一下,torch.Tensor()是python类,更明确地说,是默认张量类型torch.FloatTensor()的别名,torch.Tensor([1,2])会调用Tensor类的构造函数__init__,固定地生成单精度浮点类型的张量。>>> a=torch.Tensor([1,2])>>> a.type()'torch.FloatTensor' #生成单精度浮点类型的张量。而to原创 2022-02-15 15:26:22 · 8643 阅读 · 0 评论 -
pytorch中计算图的理解
pytorch的计算图pytorch是动态图机制,所以在训练模型的时候,每迭代一次都会构建一个新的计算图。而计算图代表着程序中变量之间的关系。y = ( a + b ) ( b + c ) y=(a+b)(b+c)y=(a+b)(b+c)在这个运算过程就会建立一个如下的计算图。在这个计算图中,叶子节点(leaf_node)就是参与运算的变量。这个图里面只有a,b,c是leaf_node。之所以要关注leaf_node,因为计算网络在反向传播的时候,需要根据链式求导法则求出网络最后输出的梯度,然后再对网络.原创 2022-02-15 11:54:46 · 1696 阅读 · 0 评论 -
【PyTorch深度学习实践】学习笔记 第四节 反向传播
课程链接PyTorch深度学习实践开始正题前,先做一个知识的补充,关于python的张量——tensor。(不要小看这些细节,有模糊的地方一定要及时搞清楚┗|`O′|┛ 嗷,以防在后面越来越多的使用中出现迷糊。)首先,我们需要明确一下,torch.Tensor()是python类,更明确地说,是默认张量类型torch.FloatTensor()的别名,torch.Tensor([1,2])会调用Tensor类的构造函数__init__,固定地生成单精度浮点类型的张量。>>> a=原创 2022-02-15 11:04:07 · 611 阅读 · 0 评论 -
【PyTorch深度学习实践】学习笔记 第三节 梯度下降
开头去年三月份学习的PyTorch深度学习实践课程,当时在有道笔记做了笔记并且实践了。现在好久没接触已经忘了。。。orz回顾了下当时写的毕设路线—pytorch环境下的深度学习的高光谱图像分类问题文章,决定整理一下笔记,也为了能快速复习。希望按照这里面的顺序,把坑都填上,立个flag,这一周把坑都回顾一遍。Let’sgo!这节课是最基础的一节之一,是自己定义的损失函数cost和计算梯度grad,能更好的理解原理。在今后的深度学习项目都是直接用的torch里的packages的封装函数了。imp原创 2022-02-14 17:42:51 · 477 阅读 · 0 评论 -
毕设路线—pytorch环境下的深度学习的高光谱图像分类问题
毕设快要结束了,一路走来一直记录着点点滴滴的技术内容,主要想写给自己看吧,作为一个项目整理的大致框架,改完最终定稿,再填补每一部分的细节。另外如果以后有做这个方向的朋友看到了,希望能提供一点小小的帮助吧,在下面附上了整个学习路线的各种视频课程的链接和自己的学习笔记链接,万福噢!欢迎批评指正不正确的内容和笔记里的错误。前言1、因为论文读的少,研究的深度不够,导致内容整体看下来很肤浅,体现的工作量很小,给人的感觉不过是调用了API,修改了一下参数,跑了遍数据集而已,没有任何的新颖的添加。————实验结果的原创 2021-05-09 16:57:56 · 11050 阅读 · 26 评论 -
pytorch 自定义数据集载入(标签在csv文件里)
在跑别人的项目的过程中,遇到的第一个大障碍是自定义数据集加载。本文主要讲关于如何让PyTorch能读取自己的数据集,不涉及dataloader机制。查阅了一些博客还有文章了解到,要让PyTorch能读取自己的数据集,只需要两步:1. 制作图片数据的索引表2. 构建Dataset子类详细参考链接:https://zhuanlan.zhihu.com/p/52807406然而,如何制作这个list呢,通常的方法是将图片的路径和标签信息存储在一个txt中,然后从该txt中读取。困扰我的不是原创 2021-04-01 16:46:53 · 6962 阅读 · 4 评论