pytorch基本知识
文章平均质量分 57
做程序员的第一天
这个作者很懒,什么都没留下…
展开
-
PyTorch-----torch.nn.Softmax()函数
是 PyTorch 中的一个类,用于计算 softmax 函数。softmax 函数常用于多分类问题中,将一个具有任意实数值的向量转换为一个概率分布,使得每个元素都在 (0, 1) 之间,并且所有元素的和为 1。其中,zi 是 logits 向量 z 的第 i 个元素,n 是 logits 向量 z 的长度(即类别的数量),e 是自然对数的底(约等于 2.71828)。Softmax 函数的一个关键特性是它的输出是一个概率分布,即所有输出值的和为 1,因此可以用于表示多个互斥的类别的概率。原创 2024-03-27 16:27:08 · 754 阅读 · 1 评论 -
PyTorch-----torch.flatten()函数
函数会将输入张量的指定维度范围内的所有元素展平到一个一维张量中。展平后的张量保持与原始张量相同的数据顺序。例如,如果输入张量是一个 3x4x5 的三维张量,然后你使用。函数将它展平,那么结果将是一个包含 60 个元素的一维张量,其中包含原始张量中所有的元素。是 PyTorch 中的一个函数,用于将输入张量展平为一维张量。函数将其展平为一个一维张量,并打印出了结果张量的大小。是一个形状为 (3, 4, 5) 的三维张量,使用。原创 2024-03-27 16:12:28 · 672 阅读 · 0 评论 -
PyTorch----torch.nn.init.kaiming_normal_
具体而言,对于ReLU激活函数,Kaiming初始化方法使用了激活函数的非线性属性,将权重初始化为以0为中心、标准差为sqrt(2 / fan_in)的正态分布,其中fan_in表示输入的数量。Kaiming初始化方法用正态分布中采样的值初始化权重,该正态分布的均值为0,标准差根据层中使用的特定非线性计算。传统的初始化方法,如Xavier初始化,是根据输入和输出层的连接数来初始化权重的,但在使用ReLU激活函数时,这种方法可能导致梯度在反向传播过程中逐渐消失,尤其是在深度网络中。该参数影响如何计算标准差。原创 2024-03-27 09:31:30 · 1074 阅读 · 0 评论 -
PyTorch----torch.nn.Linear()函数
在这个例子中,linear_layer表示一个具有5个输入特征和3个输出特征的完全连接层。我们通过这一层传递一批形状为(2,5)的输入数据,得到一个形状为(2,3)的输出张量(批大小为2,3个输出特征)。线性层的权重和偏置在层创建时自动初始化,并在训练过程中进行更新,以最小化损失。torch.nn.Linear是PyTorch中的一个模块,用于在神经网络中实现完全连接层。bias(可选):如果设置为True(默认),层将学习一个附加的偏置项。它对应于输入张量中特征的个数。它对应于层中神经元的数量。原创 2024-03-26 21:05:48 · 299 阅读 · 0 评论 -
PyTorch----torch.nn.AdaptiveAvgPool2d()自适应平均池化函数
与输出大小由内核大小和步数决定的传统池层不同,在AdaptiveAvgPool2d中,您可以直接指定所需的输出大小。可以将其指定为单个整数output_size(结果为正方形输出)或元组(output_height, output_width)。在这个例子中,AdaptiveAvgPool2d用于将输入张量的大小调整为(5,5)的固定大小,而不考虑其原始维度。这个平均值成为相应的输出像素。取一个形状为(N, C, H, W)的输入张量,其中N为批大小,C为通道数,H和W分别为输入特征映射的高度和宽度。原创 2024-03-26 20:29:23 · 530 阅读 · 0 评论 -
PyTorch-----torch.randn()函数详解
requires_grad(可选):如果为True,则在反向传播期间将计算此张量的梯度。pin_memory(可选):如果为True,张量将被固定,从而使数据更快地传输到支持cuda的gpu。这将生成一个3x2张量,其中充满从标准正态分布中采样的随机数。dtype(可选):输出张量所需的数据类型。layout(可选):输出张量的内存布局。out(可选):输出张量。如果提供,结果将被写入这个张量,而不是创建一个新的张量。device(可选):分配张量的设备。size:指定输出张量维度的列表或元组。原创 2024-03-26 20:14:17 · 534 阅读 · 1 评论 -
张量的连续性、contiguous函数
在pytorch中,tensor的实际数据以以进行存储。原创 2023-09-11 14:10:35 · 449 阅读 · 2 评论 -
torch.from_numpy()函数(pytorch版)
【代码】torch.from_numpy()函数(pytorch版)原创 2023-09-11 10:29:52 · 1275 阅读 · 0 评论