pytorch学习文档
echo_gou
这个作者很懒,什么都没留下…
展开
-
torch.max(),torch.argmax()
本篇文章只讨论二维tensor,如果是多维请参考:这篇文章torch.max(input, dim)返回有两个值,一个是最大值的值一个是最大值所在的下标索引torch.argmax()返回只有一个下标的索引上例子:首先创建一个tensorimport torcha = torch.tensor([[1,2,3,4], [7,5,7,4], [9,8,7,6]])然后分别用两种方法输出:print(torch.max(a, 1))#print(a.max(.原创 2021-11-09 21:12:15 · 1492 阅读 · 0 评论 -
tensor.item()
python中.item()的讲解_爱听许嵩歌的博客-CSDN博客转载 2021-11-05 19:50:45 · 786 阅读 · 0 评论 -
关于x.view()的理解
我们在创建一个网络的时候,会在Foward函数内看到view的使用,这里具体剖析一下它的工作原理。首先这里是一个简单的网络,有4层卷积和一层全连接组成。它的foward函数如下: def forward(self, x): x = self.conv1(x) x = self.conv2(x) x = self.conv3(x) x = self.conv4(x) temp = x.view(x.shape[0]原创 2021-10-29 15:17:34 · 21270 阅读 · 0 评论 -
Batch Normalization
什么是 Batch Normalization 批标准化 (深度学习 deep learning)_哔哩哔哩_bilibili转载 2021-11-01 14:23:11 · 79 阅读 · 0 评论 -
torch.nn.init()
import torchimport torch.nn as nnw = torch.empty(2, 3)# 1. 均匀分布 - u(a, b)# torch.nn.init.uniform_(tensor, a=0, b=1)nn.init.uniform_(w)# tensor([[ 0.0578, 0.3402, 0.5034],# [ 0.7865, 0.7280, 0.6269]])# 2. 正态分布 - N(mean, std)# torch..原创 2021-09-16 19:17:29 · 264 阅读 · 0 评论 -
torch.nn.module
pytorch里面一切自定义操作基本上都是继承nn.Module类来实现的我们在定义自已的网络的时候,需要继承nn.Module类,并重新实现构造函数__init__构造函数和forward(前向传播)这两个方法。Pytorch中对于一般的序列模型,直接使用torch.nn.Sequential类及可以实现,这点类似于keras,但是更多的时候面对复杂的模型,比如:多输入多输出、多分支模型、跨层连接模型、带有自定义层的模型等,就需要自己来定义一个模型了。forward方法是必须要重写的,它是实现原创 2021-09-15 16:21:36 · 312 阅读 · 0 评论 -
nn.linear()
def __init__(self, in_features, out_features, bias=True): super(Linear, self).__init__() self.in_features = in_features self.out_features = out_features self.weight = Parameter(torch.Tensor(out_features, in_features))...原创 2021-09-15 16:22:16 · 116 阅读 · 0 评论 -
torch.nn.Sequential()
torch.nn.Sequential是一个Sequential容器,模块将按照构造函数中传递的顺序添加到模块中。另外,也可以传入一个有序模块。https://blog.csdn.net/qq_27825451/article/details/90551513原创 2021-08-09 16:53:09 · 401 阅读 · 0 评论 -
torch.optim.SGD()
其中的SGD就是optim中的一个算法:随机梯度下降算法torch.optim是一个实现了各种优化算法的库。大部分常用的方法得到支持,并且接口具备足够的通用性,使得未来能够集成更加复杂的方法。为了使用torch.optim,你需要构建一个optimizer对象。这个对象能够保持当前参数状态并基于计算得到的梯度进行参数更新。动手学深度学习-多层感知机中:updater = torch.optim.SGD(params, lr=lr)。其中的updater就是一个optimizer对象。.原创 2021-08-09 14:00:17 · 16558 阅读 · 2 评论 -
nn.CrossEntropyLoss()
即交叉熵损失函数:L=−[ylogy^+(1−y)log(1−y^)],用于计算输出值和真实值之间的误差。官方文档中文文档原创 2021-08-09 13:46:02 · 344 阅读 · 0 评论 -
torch.randn
返回一个包含了从标准正态分布(是以0为均数、以1为标准差的正态分布)中抽取的一组随机数的张量。size为张量形状。原创 2021-08-09 11:37:25 · 243 阅读 · 0 评论 -
torch.nn.Parameter
torch.nn.Parametertorch.nn.Parameter是继承自torch.Tensor的子类,其主要作用是作为nn.Module中的可训练参数使用。这个函数理解为类型转换函数,将一个不可训练的类型 Tensor 转换成可以训练的类型 parameter 并将这个 parameter 绑定到这个module 里面(net.parameter() 中就有这个绑定的 parameter,所以在参数优化的时候可以进行优化),所以经过类型转换这个变量就变成了模型的一部分,成为了模型中根据..原创 2021-08-09 11:34:25 · 224 阅读 · 0 评论