Pytorch学习
Shawn0901
这个作者很懒,什么都没留下…
展开
-
Pytorch学习:张量和自动求导——搭建一个简单的神经网络
参考pytorch官方文档:https://pytorch.org/tutorials/beginner/pytorch_with_examples.html#id17 (可能需要科学上网)当使用自动求导时(autograd),网络的向前传播过程将会定义一个计算图,图中的结点由张量(tensor)构成,而运算过程将构成图的边(edge)。通过图的后向传播将会很容易实现对梯度的计算。如上所...原创 2018-09-17 12:20:34 · 1100 阅读 · 0 评论 -
Pytorch学习:nn & optim
计算图和autograd是定义复杂运算和自动求导的强大工具,但是在搭建大型的神经网络时,采用原生态的autograd会显得效率比较低下。在tensorflow中提供了诸如Keras, TensorFlow-Slim以及TFLearn等高层封装以便更有效地搭建神经网络,同样的,在Pytorch中提供了nn包来实现相同的目的。nn包中定义了一系列的module, 一个module对接收的张量进行计...原创 2018-09-17 16:27:53 · 742 阅读 · 0 评论 -
Pytorch学习:自定义nn模块——一种搭建复杂网络的途径
参考:https://pytorch.org/tutorials/beginner/pytorch_with_examples.html#id19有时候顺序化的模型并不能满足我们搭建复杂网络的需求,这时候就可以使用子类nn.Module来定义一个向前传播过程。下面的例子中通过自定义模块定义了一个两层的前向传播模型:# -*- coding: utf-8 -*-import torc...原创 2018-09-17 20:54:07 · 2991 阅读 · 1 评论 -
Pytorch学习:加载batch数据
参考:https://pytorch.org/tutorials/beginner/data_loading_tutorial.html数据集:https://download.pytorch.org/tutorial/faces.zip数据集概况:该数据集包含了图像和landmarks两部分,其中图像数据包含69张人脸图像,对应的landmarks中给出了相应图像的特征点。landmar...原创 2018-09-26 22:24:31 · 6913 阅读 · 0 评论 -
torch.randperm()
torch.randperm(n, out=None, dtype=torch.int64, layout=torch.strided, device=None, requires_grad=False)返回一个0到n-1的数组Parameters: n (int) – the upper bound (exclusive) out (Tensor, optiona...原创 2018-10-10 20:07:22 · 22226 阅读 · 4 评论