深入浅出Pytorch函数
文章平均质量分 63
《深入浅出Pytorch函数》系列以Pytorch模块的函数为粒度介绍了各个函数的使用方法、参数、返回值、实现过程等信息。每篇文章为一个函数,首先会介绍函数的表现形式以及其意义、使用时的注意事项等信息。其次,会给出函数的参数和返回值。最后,会列出函数的实现过程。
von Neumann
技术日新月异,人类生活方式正在快速转变,这一切给人类历史带来了一系列不可思议的奇点。我们曾经熟悉的一切,都开始变得陌生。
展开
-
深入浅出Pytorch函数——torch.nn.Module.apply
torch.nn.Module.apply(fn)原创 2023-08-20 14:40:40 · 1113 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.sparse_
torch.nn.init.sparse_(tensor, sparsity, std=0.01)原创 2023-08-19 21:20:29 · 10425 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.orthogonal_
torch.nn.init.orthogonal_(tensor, gain=1)原创 2023-08-19 21:14:49 · 2596 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.trunc_normal_
torch.nn.init.trunc_normal_(tensor, mean=0.0, std=1.0, a=- 2.0, b=2.0)原创 2023-08-19 21:06:11 · 3701 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.kaiming_normal_
torch.nn.init.kaiming_normal_(tensor, a=0, mode='fan_in', nonlinearity='leaky_relu')原创 2023-08-19 20:53:31 · 5096 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.kaiming_uniform_
torch.nn.init.kaiming_uniform_(tensor, a=0, mode='fan_in', nonlinearity='leaky_relu')原创 2023-08-19 20:48:10 · 1599 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.xavier_normal_
torch.nn.init.xavier_normal_(tensor, gain=1.0)原创 2023-08-19 18:57:26 · 2870 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.xavier_uniform_
torch.nn.init.xavier_uniform(tensor, gain=1)原创 2023-08-19 18:48:48 · 2833 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.dirac_
torch.nn.init.dirac_(tensor, groups=1)原创 2023-08-19 18:40:32 · 1018 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.eye_
torch.nn.init.eye_(tensor)原创 2023-08-19 18:36:59 · 1324 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.zeros_
torch.nn.init.zeros_(tensor)原创 2023-08-19 18:33:58 · 1496 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.ones_
torch.nn.init.ones_(tensor)原创 2023-08-19 18:32:08 · 1809 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.constant_
torch.nn.init.constant_(tensor, val)原创 2023-08-19 18:23:03 · 2518 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.normal_
torch.nn.init.normal_(tensor, mean=0.0, std=1.0)原创 2023-08-19 18:20:23 · 1588 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.uniform_
torch.nn.init.uniform_(tensor, a=0.0, b=1.0)原创 2023-08-19 18:16:39 · 3490 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.init.calculate_gain
torch.nn.init.calculate_gain(nonlinearity, param=None)原创 2023-08-19 18:05:40 · 1429 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.Module
torch.nn.Module(*args, **kwargs)原创 2023-08-19 14:22:26 · 1748 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.Linear
对输入数据做线性变换yxATb。原创 2023-08-19 14:03:53 · 2229 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.no_grad
torch.no_grad()原创 2023-07-31 20:33:48 · 14864 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.Tensor.detach
torch.Tensor.detach()原创 2023-07-27 21:50:39 · 12704 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.Tensor.backward
Tensor.backward(gradient=None, retain_graph=None, create_graph=False, inputs=None)原创 2023-07-27 21:18:11 · 11776 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.sum
torch.sum(input, *, dtype=None)原创 2023-07-27 20:22:52 · 12369 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.sort
按照值沿给定维度对输入张量的元素进行排序。如果未给定dim,则选择输入的最后一个维度。若descending被指定为True,则元素按值降序排列,否则为升序。如果stable为True,则排序例程变为稳定,从而保持等价元素的顺序。原创 2023-07-23 21:42:42 · 10009 阅读 · 5 评论 -
深入浅出Pytorch函数——torch.nn.Softmax
将Softmax函数应用于n维输入张量,重新缩放它们,使得n维输出张量的元素位于01的范围内,且总和为1。当输入张量是稀疏张量时,未指定的值被视为-inf。原创 2023-07-23 21:25:12 · 8833 阅读 · 1 评论 -
深入浅出Pytorch函数——torch.softmax/torch.nn.functional.softmax
将Softmax函数应用于沿dim的所有切片,并将重新缩放它们,使元素位于01的范围内并和为1。原创 2023-07-23 21:13:33 · 9816 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.max
相关文章:· 深入浅出Pytorch函数——torch.maxkeepdimTruedimdim。原创 2023-07-23 20:20:16 · 8177 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.maximum
计算input和other的元素最大值。原创 2023-07-23 18:02:42 · 8582 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.nn.Module
所有Pytorch中所有神经网络模型的基类,我们的神经网络模型也应该继承这个类。Modules可以包含其它Modules,也允许使用树结构嵌入他们,还可以将子模块赋值给模型属性。原创 2023-07-22 23:31:52 · 7638 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.squeeze
将输入张量形状为1的维度去除并返回。比如输入向量的形状为A×1×B×1×C×1×D,则输出向量形状就为A×B×C×D。当给定参数dim时,则操作只在给定维度dim上。例如,输入向量的形状为A×1×B,使用,输出向量的形状将会保持张量不变,只有使用,输出向量的形状才会变成A×B。需要注意的是,返回张量与输入张量共享内存,所以改变其中一个的内容会改变另一个。原创 2023-07-22 21:12:58 · 8275 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.unsqueeze
返回一个新的张量,且在指定位置新插入了一个大小为1的维度,返回的张量与该张量共享相同的底层数据。原创 2023-07-22 20:53:18 · 8128 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.mv
torch.mv(input, vec, *, out=None) → Tensor原创 2023-04-17 20:26:32 · 10879 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.transpose
torch.transpose(input, dim0, dim1) → Tensor原创 2023-04-11 20:11:31 · 10862 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.t
torch.t(input) → Tensor原创 2023-04-11 20:11:49 · 11442 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.sum
torch.sum(input, dim, keepdim=False, *, dtype=None) → Tensor原创 2023-04-03 20:26:35 · 11170 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.exp
torch.exp(input, *, out=None) → Tensor原创 2023-03-28 21:52:22 · 12350 阅读 · 3 评论 -
深入浅出Pytorch函数——torch.full_like
torch.full_like(input, fill_value, \*, dtype=None, layout=torch.strided, device=None, requires_grad=False, memory_format=torch.preserve_format) → Tensor原创 2023-03-16 21:20:14 · 11595 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.ones_like
torch.ones_like(input, *, dtype=None, layout=None, device=None, requires_grad=False, memory_format=torch.preserve_format) → Tensor原创 2023-03-16 21:18:36 · 12496 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.zeros_like
torch.zeros(input.size, dtype=input.dtype,layout=input.layout,device=input.device)原创 2023-03-16 21:13:41 · 13464 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.full
torch.full(size, fill_value, *, out=None, dtype=None, layout=torch.strided, device=None, requires_grad=False)原创 2023-03-14 18:14:55 · 11669 阅读 · 0 评论 -
深入浅出Pytorch函数——torch.ones
torch.ones原创 2023-03-13 20:20:28 · 22379 阅读 · 0 评论