PyTorch深度学习
文章平均质量分 65
分享pytorch学习中笔记
清忖灬
万事顺遂
展开
-
PyTorch学习笔记(八)-------------- 多模态融合
多模态指的是由不同信息源提供的多种信息表示方式。这些信息表示方式可以是文本、图像、声音、视频等。多模态信息的处理是许多人工智能应用的关键。例如,在视频分类任务中,我们可能希望利用视频的音频和视频轨道信息来判断视频的内容。在文本分类任务中,我们可能希望利用文本的语言、句法、语义信息来判断文本的类别。在图像分类任务中,我们可能希望利用图像的颜色、形状、纹理信息来判断图像的类别。多模态信息的处理可以使用多种方法。其中一种常见的方法是模态融合,即将多个模态的信息结合起来,以达到更好的性能。原创 2022-12-18 17:15:38 · 5328 阅读 · 8 评论 -
Deep learning
SigmoidLoss functionx:inputy:outputy = Sigmoid(w*x+b)梯度下降W = W - α J(w, b) α 为学习率Loss function Logistic回归np.exp(v)→取自然对数的v次幂np.zeros(n, 1)→n*1维np.array.sum(axis=0) 竖直相加展开对应维度相加100→[100 100 100 100] ^ T print(a.T) a的转置np.dot(x, y)→矩阵积assert(a.shape == (5,原创 2022-07-11 14:29:34 · 90 阅读 · 0 评论 -
PyTorch学习笔记(七)------------------ Vision Transformer
目录一、Patch and Linear map二、Adding classification token三、Positional encoding四、LN, MSA and Residual Connection五、LN、MLP and Residual Connection六、Classification MLP前言:vision transformer(vit)自Dosovitskiy等人介绍以来,一直在计算机视觉领域占主导地位,在分类中的大多数情况超过了传统的卷积神经网络(cnn)Transfo原创 2022-06-20 16:23:25 · 617 阅读 · 1 评论 -
PyTorch学习笔记(四) -------卷积层
什么是卷积?来看这张图输入图像是224*224*3 即图片尺寸是224*224,3个通道;输出图片尺寸是224*224,64个通道个人认为,卷积就是图片经过卷积核的映射过程,如下图所示什么是通道?在卷积操作中一般要求设置的in_channel和out_channel在一遍jpg,png图片中,in_channel=3,为RGB三个通道,RGB的不同可以调整图片的色彩out_channel则表示卷积核的数量,卷积核的数量=输出通道以上就是这次学习中对这两个基本概念的个人原创 2022-01-11 20:42:07 · 1518 阅读 · 0 评论 -
PyTorch学习笔记(三)总结篇 --------自建数据集的载入
前言经过这几天学习,我算是把数据集这一块给摸清楚了,前面分布分支的学习总是有点模棱两可,不清楚这步到底要干啥,在网上找资料学习时,总是拿的pytorch官网给的数据集,没有针对性和专一性。这里教大家如何使用咱们自己的数据集,当然,在做实验时数据集是通过爬虫来获取的,关于爬虫的相关知识可以留言私信,或者看我第一篇博客哦一、MyData类的定义在自建数据集时需要自己去定义一个dataset类来继承torch.utils.data.Dataset来看代码class MyData(Datase原创 2022-01-06 21:34:36 · 1505 阅读 · 0 评论 -
PyTorch学习笔记(五) ---------最大池化和非线性激活
一、最大池化类似于卷积操作,这里最大池化的过程与卷积有部分相似之处,不多赘述最大池化是为了保留数据特征,减少数据量class Module(nn.Module): def __init__(self): super(Module, self).__init__() # 父类继承 self.maxpool1 = MaxPool2d(kernel_size=3, ceil_mode=True) # kernel_size=3表示池化核是3*3, ceil原创 2022-01-12 19:10:58 · 574 阅读 · 2 评论 -
PyTorch学习笔记(六)总结篇 -------完整机器学习(以VGG16为例)
新年伊始,想着pytorch的笔记也该写一个完结篇,以此来纪念前一段时间对pytorch的学习神经网络的搭建大同小异,一层卷积一层池化一层非线性激活诸如此类。重点还是在于对数据集的把握一个完整的项目离不开自建数据集这个环节,这就需要对Dataset进行重写class MyData(Dataset): def __init__(self, root_dir, mode_dir, label_dir, transform=None): # 初始化类,为class提供全局变量原创 2022-02-05 16:33:46 · 1637 阅读 · 0 评论 -
Ubuntu系统下配置PyTorch环境
前言这几天一直研究如何在ubuntu系统下安装Pytorch,中间磕磕碰碰也是碰到了各种各样的错误,但好在最终torch.cuda.is_available()显示True,时间也算没白白浪费。同样也感谢我当初的Linux老师为我指点迷津(有一说一,linux这个东西跟win是真不一样,对小白很不友好)步骤一、NVIDIA驱动1、安装linux系统,这个不多赘述,随便一个b站的教程都可以教会你。但还是友情提醒一下,在分配虚拟内存的时候最好多分配一点,我当初分配...原创 2022-04-17 14:59:02 · 8478 阅读 · 0 评论 -
PyTorch学习笔记(二) -----tensorboard和torchvision的基本操作
tensorboard的使用# -*- coding = utf-8 -*-from torch.utils.tensorboard import SummaryWriterwriter = SummaryWriter("logs") # 放在log文件夹下for i in range(100): writer.add_scalar("y=x", i, i) # 前面是y轴,后面是x轴writer.close()运行成功后会出现log的文件夹如何打开呢,在pycharm的原创 2022-01-05 20:34:49 · 1187 阅读 · 0 评论 -
PyTorch学习笔记(一) ---------数据集的简单创建
一、图像基本处理以及数据集的简单创建初次接触pytorch,配置环境还是比较麻烦的,主要是用到anaconda下面是对图像处理的基本操作from PIL import Image # 图像处理的库img_path = r'D://情绪图片测试/path1.jpg' # 图片路径img = Image.open(img_path) # 调用方法,打开该图像print(img.size) # 输出该图像的尺寸img.show() # 显示数据集这是将目的地址的图片形成列表原创 2022-01-03 20:04:26 · 2789 阅读 · 0 评论