![](https://img-blog.csdnimg.cn/20190918140037908.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习系统文章
文章平均质量分 87
更方便找到对应知识
疯丰
大数据开发工程师
展开
-
卷积神经网络
目录卷积(Convolution)卷积计算填充(padding)步幅(stride)感受野(Receptive Field)多输入通道、多输出通道和批量操作池化(Pooling)ReLU激活函数批归一化(Batch Normalization)丢弃法(Dropout)练习:计算卷积中一共有多少次乘法和加法操作卷积神经网络是目前计算机视觉中使用最普遍的模型结构,卷积神经网络的一些基础模块,包括:卷积(Convolution) 池化(Pooling)原创 2022-05-27 07:30:00 · 1935 阅读 · 0 评论 -
使用Pytorch实现手写数字识别
目录1. 思路和流程分析2. 准备训练集和测试集2.1 torchvision.transforms的图形数据处理方法2.1.1 torchvision.transforms.ToTensor2.1.2 torchvision.transforms.Normalize(mean, std)2.1.3 torchvision.transforms.Compose(transforms)2.2 准备MNIST数据集的Dataset和DataLoader3. 构建模型3.1 激原创 2022-05-27 07:30:00 · 7041 阅读 · 1 评论 -
Pytorch中的数据加载
目录1. 模型中使用数据加载器的目的2. 数据集类2.1 Dataset基类介绍2.2 数据加载案例3. 迭代数据集4. pytorch自带的数据集4.1 torchversion.datasets4.2 MNIST数据集的介绍1. 模型中使用数据加载器的目的在前面的线性回归模型中,我们使用的数据很少,所以直接把全部数据放到模型中去使用。但是在深度学习中,数据量通常是都非常多,非常大的,如此大量的数据,不可能一次性的在模型中进行向前的计算和反向传播,经常原创 2022-05-26 08:30:00 · 1669 阅读 · 0 评论 -
调用Pytorch API 完成线性回归以及如何在GPU上面运行代码
目录1. Pytorch完成模型常用API1.1 nn.Module1.2 优化器类1.3 损失函数1.4 把线性回归完整代码2. 在GPU上运行代码1. Pytorch完成模型常用API在前一部分,我们自己实现了通过torch的相关方法完成反向传播和参数更新,在pytorch中预设了一些更加灵活简单的对象,让我们来构造模型、定义损失,优化损失等那么接下来,我们一起来了解一下其中常用的API1.1 nn.Modulenn.Modul 是torch.n原创 2022-05-25 07:30:00 · 581 阅读 · 0 评论 -
手动完成线性回归
目录1向前计算1.1 计算过程1.2 requires_grad和grad_fn2梯度计算3线性回归实现前言:在学完深度学习理论和pytorch得基本使用方法后,我们来通过简单地线性回归例子来巩固前面理论知识。1向前计算对于pytorch中的一个tensor,如果设置它的属性 .requires_grad为True,那么它将会追踪对于该张量的所有操作。或者可以理解为,这个tensor是一个参数,后续会被计算梯度,更新该参数。1.1 计算过程假设有以下...原创 2022-05-24 21:15:00 · 470 阅读 · 0 评论 -
Pytorch的入门使用方法
目录1. 张量Tensor2. Pytorch中创建张量3. Pytorch中tensor的常用方法4. tensor的数据类型5. tensor的其他操作1. 张量Tensor张量是一个统称,其中包含很多类型: 0阶张量:标量、常数,0-D Tensor 1阶张量:向量,1-D Tensor 2阶张量:矩阵,2-D Tensor 3阶张量 ... N阶 2. Pytorch中创建张量 使用python原创 2022-05-19 20:35:16 · 141 阅读 · 0 评论 -
深度学习原理与基本过程系统总结
目录1 深度学习各模块介绍1.1 神经元1.2 单层神经网络1.3 感知机1.4 多层神经网络1.5 激活函数2 神经网络三部曲2.1 正向传播2.2 反向传播2.3 梯度下降3常见的优化算法介绍3.1梯度下降算法(batch gradient descent BGD)3.2随机梯度下降法 (Stochastic gradient descent SGD)3.3小批量梯度下降 (Mini-batch gradient descent MB...原创 2022-05-22 08:00:00 · 1074 阅读 · 0 评论