![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
文章平均质量分 64
BlackZhou013
这个作者很懒,什么都没留下…
展开
-
torch.distributed.broadcast 解释&示例
是PyTorch分布式框架中的一个函数,它的作用是在分布式环境中将一个张量从指定的进程广播到所有其他进程。具体地说,当一个进程调用函数并指定一个张量作为输入,该函数会将这个张量广播给所有其他进程,这些进程也可以通过调用该函数来接收这个张量。在广播过程中,每个进程都会从指定进程接收张量,并将其写入自己的内存中。这样,所有进程都能够获得相同的张量副本,从而可以在分布式训练或其他任务中进行协同计算。其中,tensor是要广播的张量,src是指定的源进程,它会将张量广播给其他进程。group。原创 2023-03-20 21:33:08 · 3988 阅读 · 2 评论 -
Pytorch unsqueeze和squeeze 解释&示例
在PyTorch中,unsqueeze和squeeze函数用于改变张量的形状(即增加或减少维度)。unsqueeze函数将张量的指定维度扩展,使其具有大小为1的新维度,而squeeze函数则移除张量中大小为1的维度。原创 2023-03-20 20:49:12 · 325 阅读 · 0 评论 -
torch.gather 解释&示例
是一个PyTorch函数,用于按照给定的索引从输入张量中收集指定的元素。它接受三个参数:input:输入张量,其形状为(B, N, C),其中B表示批次大小,N表示每个批次中的元素数,C表示每个元素的特征数。dim:表示需要收集的维度。例如,如果dim=1,则表示沿着第二个维度收集元素。index:一个张量,包含了从输入张量input中收集元素所需的索引。它的形状为(B, M),其中M表示每个批次中要收集的元素数量。函数会返回一个形状为(B, M, C)原创 2023-03-20 20:43:40 · 1852 阅读 · 0 评论