![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch框架学习
Pytorch框架学习
隔壁的NLP小哥
积跬步,至千里
展开
-
Pytorch—模型参数与自定义网络层
Pytorch—模型参数定义与访问原创 2020-06-16 00:11:50 · 3948 阅读 · 0 评论 -
Pytorch—NiN和GoogleNet神经网络
Pytorch—NiN和GoogleNet神经网络1 NiN神经网络在前面介绍的LeNet,AlexNet,VGG神经网络中,其共同点在于使用卷积层和池化层提取输入特征。在将矩阵展开成一个向量的形式,再利用线性层进行输出分类结果。在下面的内容中,我们描述另外的一种思路。1.1 基本介绍在我们之前的实现的LeNet,VGG中,原始输入的形式一般为(Batch_size,channel,high,width)这样的四个维度。通过卷积层之后,我们将卷积获得的结果进行展开操作,再输入到线性层中进行下一步的操原创 2020-06-15 19:51:03 · 272 阅读 · 0 评论 -
Pytorch—VGG网络
Pytorch—VGG网络和GoogleNet网络在之前的文章中,我们实现了LeNet网络结构和AlexNet结构,其中ALexNet对于LeNet做出了一些修改。在下面的文章中,我们来介绍一下其他两种卷积网络的思路和实现。1 VGG网络1.1 结构回顾实际上,VGG网络也是多个卷积层的堆叠的过程。其中VGG累积过程为:连续使用个数相同的,padding=1,Kernel-size=33的卷积之后,在堆叠一个stride=2,Kernel-size=22的Max-pooling层。,通过卷积层之后,原创 2020-06-13 11:46:33 · 730 阅读 · 0 评论 -
Pytorch——LeNet和AlexNet实现
Pytorch——LeNet和AlexNet实现1 LeNet模型1.1 基本结构LeNet分为卷积层和全连接层两个部分。卷积层块里的基本单位是卷积层后接最大池化层,卷积层用来识别图像里的空间模式。之后使用最大池化层则用于降低卷积层对于位置的敏感性。整个的卷积部分由这两个基本的单位重复堆叠构成。卷积层的输出形状为(Batch,通道数量,高,宽)。当卷积层快的输出传入到全连接层快的时候,全连接层快会将Batch中的每一个样本进行展开(flatten),也就是说,全连接层的输入是一个二维矩阵,第一个维原创 2020-06-10 15:47:18 · 360 阅读 · 0 评论 -
Pytorch——卷积网络基础
Pytorch——卷积网络基础1. 二维卷积层在CNN模型,最常见的是二维的卷积层,我们也从这个方面开始介绍。1.1 知识回顾在二维的卷积层中,一个二维输入数组和一个二维核数组通过互相关运算输出一个二维数组。举一个具体的例子来说:这里定义原始的二维矩阵为33的矩阵,定义卷积核为22,通过卷积核在原始矩阵上的滑动来进行互运算,以蓝色的部分为例:0∗0+1∗1+3∗2+4∗3=190*0+1*1+3*2+4*3=190∗0+1∗1+3∗2+4∗3=19在二维的互运算中,卷积核从原始的输入矩阵从左原创 2020-06-10 12:34:49 · 841 阅读 · 0 评论 -
Pytorch—模型构造(Module)
Pytorch—模型构造(Module)1. 模型构造(Module类)1.1. Module简介在这个系列之前的文章中,在自定义模型的时候,始终都都需要继承nn.Module类。这里我们对于这个类进行一下解释。众所周知,Pytorch是基于动态图的模型搭建方式,我们可以随机的在网络中添加或者删除网络层。在搭建我们自己的网络结构的时候,我们需要基础nn.Module类作为父类。然后在我们自定义类的内部添加不同的网络层。其中nn.Module类是nn模块中提供的一个模型构造类,是所有神经网络模块的基础原创 2020-06-09 19:07:04 · 1240 阅读 · 0 评论 -
Pytorch—softmax回归
Pytorch—softmax回归1 知识回顾softmax回归和一般的线性回归类似,将输入特征和权重做线性叠加。与线性回归的一个主要的不同的是,softmax回归的输出值个数等于标签里的类别数数量。这里我们以4个特征和3个分类为例。所有的权重参数的数量为12,偏差的数量为3,对于每一个输入计算o1,o2,o3o_1,o_2,o_3o1,o2,o3这三个输出:o1=x1w11+x2w21+x3w31+x4w41+b1o2=x1w12+x2w22+x3w32+x4w42+b2o1=x1w13+x2原创 2020-06-09 16:04:57 · 486 阅读 · 0 评论 -
Pytorch—线性模型实现
Pytorch—线性模型实现本文将通过设置变量的自动求导方式来手动编写一个线性模型和利用Pytorch自定义的线性层来实现一个线性模型。1. 手动编写#encoding=utf-8import torchfrom IPython import displayfrom matplotlib import pyplot as pltimport numpy as npimport random# 生成数据集input_dim = 2exmples_num = 1000true_w =原创 2020-06-09 09:45:25 · 1076 阅读 · 0 评论