PyTorch使用
文章平均质量分 68
记录PyTorch使用方法。
峡谷的小鱼
这个作者很懒,什么都没留下…
展开
-
PyTorch: 目标检测(object detection)介绍
在图像分类任务中,我们假设图像中只有一个主要物体对象,我们只关注如何识别其类别。 然而,很多时候图像里有多个我们感兴趣的目标,我们不仅想知道它们的类别,还想得到它们在图像中的具体位置。 在计算机视觉里,我们将这类任务称为目标检测(object detection)或目标识别(object recognition)。原创 2022-05-10 11:53:30 · 4323 阅读 · 0 评论 -
PyTorch 使用torchvision进行图片数据增广
数据增强就是增强一个已有数据集,使得有更多的多样性。对于图片数据来说,就是改变图片的颜色和形状等等。原创 2022-05-05 18:22:18 · 3104 阅读 · 1 评论 -
PyTorch实现:经典网络 ResNet
ResNet(Residual Neural Network)由微软研究院的Kaiming He等四名华人提出,通过使用 Residual 结构训练出更深的神经网络,效果非常突出。ResNet的结构可以极快的加速神经网络的训练,模型的准确率也有比较大的提升。原创 2022-05-04 22:00:06 · 1080 阅读 · 0 评论 -
PyTorch实现:经典网络 含并行连结的网络 GoogLeNet
在GoogleNet出现值前,流行的网络结构使用的卷积核从1×1到11×11,卷积核的选择并没有太多的原因。GoogLeNet的提出,说明有时候使用多个不同大小的卷积核组合是有利的。原创 2022-05-03 01:45:45 · 742 阅读 · 0 评论 -
PyTorch实现:经典网络 NiN
NIN(NetWork In NetWork) 是出自新加坡国立大写2014年的论文"Network In Network",NIN 改进了传统的CNN,采用了少量参数就取得了超过AlexNet的性能,AlexNet网络参数大小是230M,NIN只需要29M,此模型后来先后被Inception与ResNet 等所借鉴。————————————————版权声明:本文为CSDN博主「遇到我的Bug你要裂了」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。原文链接:http原创 2022-05-02 19:34:43 · 704 阅读 · 0 评论 -
PyTorch实现:经典网络 块网络VGG
AlexNet 证明深层神经网络卓有成效,但是AlexNet网络的设计没能给出一个通用的设计模板,来指导后续的研究人员设计网络框架。从AlexNet来看,卷积神经网络的基本组成部分包括:卷积层、激活函数层、汇聚层。因此,VGG提出了卷积块的概念,构建了一种基于卷积块设计的网络设计方法。原创 2022-05-02 15:36:19 · 1338 阅读 · 0 评论 -
PyTorch实现:经典网络 AlexNet
传统的机器学习方法,在收集到数据集之后,需要使用光学、几何学等领域的知识来指导手工对数据的预处理,然后通过标准的特征提取算法获取特征,最后将提取的特征送入选择的分类器中。随着技术的发展,另一种想法开始出现:特征的提取本身,也应该由模型通过学习来提取;特征可以有多个神经网络层来共同学习。由此,诞生的 AlexNet 最终使得卷积神经网络开始在图像领域超越其它机器学习方法。原创 2022-05-02 02:23:34 · 1914 阅读 · 4 评论 -
PyTorch 标准化操作层 (BatchNorm, LayerNorm, InstanceNorm))
PyTorch 标准化操作层的功能介绍和基本参数介绍。原创 2022-04-30 01:21:49 · 2009 阅读 · 1 评论 -
PyTorch 卷积层的使用
PyTorch的卷积层的使用介绍。原创 2022-04-29 15:32:10 · 236 阅读 · 0 评论 -
PyTorch 常用的损失函数(目标函数)介绍
损失函数(目标函数),在机器学习中计算真实值和目标值之间的差异。Pytorch 中定义了大量的目标函数类,这里简单介绍几种常用的目标函数。原创 2022-04-29 00:12:49 · 1036 阅读 · 0 评论 -
PyTorch 的容器 Container 包括 ( nn.ModuleList, nn.ModuleDict, nn.Sequential )
PyTorch 中定义了一些容器类,可以方便的构造自己的模型。nn.ModuleList 可以向列表一样索引module。nn.Sequential 适合构造一个多层的局部网络。原创 2022-04-28 00:35:42 · 472 阅读 · 0 评论 -
PyTorch nn.Module 实例的8个属性字典(OrderedDict)
nn.Module 子类实例化后会 创造8个 OrderedDict 属性,来管理网络。包括管理参数的_parameter,管理子模块的 _modules等等。原创 2022-04-27 20:08:44 · 2960 阅读 · 0 评论 -
Pytorch 深度神经网络的创建
Pytorch创建网络的方法,简单介绍下所有网络的基类,来了解网络模块的常用方法。原创 2022-04-25 23:38:50 · 671 阅读 · 0 评论 -
Pytorch SGD随机梯度下降法
pytorch 使用随机梯度下降优化变量。原创 2022-04-24 05:58:33 · 1119 阅读 · 0 评论 -
Pytorch 加载自有数据集
所有数据集都是该类的子类。子类必须重写 `__getitem__` 方法, 实现通过 key 获取数据样本;子类也可以重写 `__len___` 方法, 来获取数据集的尺寸。...原创 2022-04-21 07:47:51 · 2966 阅读 · 0 评论 -
Pytorch 搭建简单多层感知机模型训练全过程
使用Pytorch搭建简单多层感知机模型。原创 2022-04-20 05:26:42 · 945 阅读 · 1 评论 -
Fashion MNIST数据集的处理——“...-idx3-ubyte”文件解析
MNIST数据集可能是计算机视觉所接触的第一个图片数据集。而 Fashion MNIST 是在遵循 MNIST 的格式和大小的基础上,提升了一定的难度,在比较算法的性能时可以有更好的区分度。Fashion MNIST 数据集包含 60000 张图片的训练集和 10000 张图片的测试集。图片的大小为 28×28,共784个像素。像素的灰度值介于0~255之间的整数。原创 2022-04-14 11:22:13 · 8003 阅读 · 0 评论 -
PyTorch实现:经典网络LeNet
PyTorch实现LeNet网络一. LeNet 网络介绍我们将介绍LeNet,它是最早发布的卷积神经网络之一,因其在计算机视觉任务中的高效性能而受到广泛关注。 这个模型是由AT&T贝尔实验室的研究员Yann LeCun在1989年提出的(并以其命名),目的是识别图像 :cite:LeCun.Bottou.Bengio.ea.1998中的手写数字。 当时,Yann LeCun发表了第一篇`在这里插入代码片`通过反向传播成功训练卷积神经网络的研究,这项工作代表了十多年来神经网络研究开发的成果。L原创 2022-01-19 04:01:17 · 3001 阅读 · 0 评论 -
torchvision.transforms模块功能介绍
torchvision.transforms模块介绍torchvision.transforms模块是PyTorch进行图片预处理的模块。原创 2022-01-18 02:57:03 · 3873 阅读 · 1 评论 -
PyTorch构建卷积层
Pytorch实现2维卷积层原创 2022-01-12 18:38:56 · 1484 阅读 · 0 评论 -
PyTorch数据集加载相关类介绍
PyTorch 中 torch.utils.data中类的定义和使用。原创 2022-01-10 19:09:51 · 708 阅读 · 0 评论