![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
文章平均质量分 55
陈住气^-^
保持自律,保持热情,Stay hungry,stay foolish!
展开
-
torch.stack()
官方解释:沿着一个新维度对输入张量序列进行连接。 序列中所有的张量都应该为相同形状。浅显说法:把多个2维的张量凑成一个3维的张量;多个3维的凑成一个4维的张量…以此类推,也就是在增加新的维度进行堆叠。import torcha = torch.tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]])b = torch.tensor([[10, 20, 30], [40, 50, 60], [70, 80, 90]]原创 2022-05-23 20:35:18 · 500 阅读 · 0 评论 -
基于Pytorch搭建的神经网络资源汇总
2、AlexNet网络结构原创 2022-05-18 11:41:37 · 523 阅读 · 0 评论 -
pytorch保存权重以及加载权重
一、定义一个多层感知机class MLP(nn.Module): def __init__(self): super().__init__() self.hidden = nn.Linear(20, 256) self.output = nn.Linear(256, 10) def forward(self, x): return self.output(F.relu(self.hidden(x)))net = ML原创 2022-05-14 20:13:42 · 1316 阅读 · 0 评论 -
torch.Tensor和torch.tensor的区别
在Pytorch中,Tensor和tensor都用于生成新的张量。>>> a = torch.Tensor([1, 2])>>> atensor([1., 2.])>>> a=torch.tensor([1,2])>>> atensor([1, 2])首先我们从根源上来看看torch.Tensor()和torch.tensor()区别。torch.Tensortorch.Tensor()是Python类转载 2022-05-11 17:45:49 · 552 阅读 · 0 评论