pytorch中的sum

pytorch的sum怎么那么烦人呢?我怎么知道应该给哪个维度做加和呢。
如果 x=
tensor([[0.5946, 0.3530, 0.2231],
[0.7467, 0.2139, 0.4841],
[0.6990, 0.6151, 0.1369],
[0.1062, 0.5951, 0.7555],
[0.7811, 0.2932, 0.2963]])
那么我想 x.sum(dim=1),第0个维度是行,第1个维度应该是列,那应该是按列求和吧,最后结果应该是一行3列。结果是
tensor([1.1707, 1.4448, 1.4510, 1.4568, 1.3706]) 这分明是按行求和的嘛。

看看官方的说明文档吧。
torch.sum
在给定维度的情况下,返回每一行的和。
如果keepdim=True,那么输出和输出的形状是相同的,除了dim维度变为1。
如果keepdim=False,那么dim的维度就被压缩了(squeezed),那么输出的形状就比输入的形状少了一个维度。
哦,原来不要考虑应该按哪个维度求和,只需要考虑一下求和后的结果是什么形状的。

x是5行3列的。如果我想对每一行求和,那输出的结果应该是5行1列。因为要5行1列,形状还是2个维度,所以keepdim=True。否则就只有一个维度了。因为是第1个维度变为1了,所以应该 dim=1。合并起来就是x.sum(dim=1,keepdim=True)。

如果我想对每一列求和,那输出的结果应该是1行3列。因为要1行3列,形状还是2个维度,所以keepdim=True。因为是第0个维度变为1了,所以dim=0。合并起来就是x.sum(dim=0,keepdim=True)。

当然dim还可以是一个list,那么会依次对这些维度求和。

给一段jupyter notebook中可以跑的代码,可以看看输出的形状。

import torch
x = torch.rand(5,3)
x
y = x.sum(dim=1, keepdim=True)
y
y = x.sum(dim=1)
y
y = x.sum(dim=0, keepdim=True)
y
y = x.sum(dim=0)
y
y = x.sum(dim=[0,1])
y
### 回答1: PyTorch使用TensorBoard可以通过安装TensorBoardX库来实现。TensorBoardX是一个PyTorch的扩展库,它提供了一种将PyTorch的数据可视化的方法,可以将训练过程的损失函数、准确率等指标以图表的形式展示出来,方便用户对模型的训练过程进行监控和调试。具体使用方法可以参考TensorBoardX的官方文档。 ### 回答2: PyTorch是一款流行的深度学习框架,用于实现神经网络模型和训练过程。TensorBoard是与TensorFlow框架一起使用的一个可视化工具,方便进行模型训练和性能调优。但是,PyTorch用户也可以充分利用TensorBoard来监控他们的模型。 在PyTorch使用TensorBoard主要包括以下几个步骤: 1. 安装TensorBoard和TensorFlow:需要在PyTorch的虚拟环境安装TensorFlow和TensorBoard,这可以使用pip来完成。 2. 导入所需的库:首先,需要导入PyTorch库和TensorFlow库。在这里,PyTorch库用于定义、训练和测试模型,而TensorFlow库用于可视化和监视模型训练过程。可以使用以下代码导入这些库: ``` import tensorflow as tf from torch.utils.tensorboard import SummaryWriter ``` 3. 创建SummaryWriter对象:SummaryWriter是TensorBoard类的主要接口。可以使用它来创建TensorBoard的摘要文件和事件文件。在下面的代码,可以创建一个名为“runs/xxx”的摘要写入器: ``` writer = SummaryWriter('runs/xxx') ``` 4. 定义模型:在PyTorch定义模型。在下面的代码,定义了一个包含两个全连接层的简单线性模型: ``` import torch.nn as nn class LinearModel(nn.Module): def __init__(self): super(LinearModel, self).__init__() self.fc1 = nn.Linear(784, 100) self.fc2 = nn.Linear(100, 10) def forward(self, x): x = x.view(-1, 784) x = nn.functional.relu(self.fc1(x)) x = self.fc2(x) return x ``` 5. 记录数据:使用writer对象记录数据。可以使用以下代码来记录训练数据: ``` for epoch in range(num_epochs): for i, (images, labels) in enumerate(train_loader): # 定义前向传递 outputs = model(images) # 计算损失 loss = criterion(outputs, labels) # 后向传递和优化器的更新 optimizer.zero_grad() loss.backward() optimizer.step() # 记录损失和准确率 writer.add_scalar('Training/Loss', loss.item(), epoch * len(train_loader) + i) total = labels.size(0) _, predicted = torch.max(outputs.data, 1) correct = (predicted == labels).sum().item() writer.add_scalar('Training/Accuracy', 100 * correct / total, epoch * len(train_loader) + i) ``` 6. 可视化和监控:在运行完上述代码后,可以返回到TensorBoard,可视化和监视训练过程。输入以下命令,启动TensorBoard服务: ``` tensorboard --logdir=runs ``` 然后,在Web浏览器,输入http://localhost:6006访问TensorBoard服务器。此时,可以看到图形界面显示了许多模型指标,例如损失和准确率。点击“Scalars”选项卡,就可以查看训练过程的损失和准确率曲线。 总之,在PyTorch使用TensorBoard可以方便地监视模型的训练和性能,并且TensorBoard可以提供可视化和交互式工具来帮助调试模型。 ### 回答3: PyTorch是近年来开发迅速的深度学习框架之一,基于Python语言,操作简便易学,广受欢迎。其应用范围广泛,包括图像识别、文本分类、语言模型等多种场景。 TensorBoard是TensorFlow框架提供的可视化工具,能够展现模型训练过程的各类参数、数据和图形化结果。然而,使用PyTorch的开发者也可以使用TensorBoard,PyTorch支持使用TensorBoard进行训练过程可视化。 下面是关于使用TensorBoard来监测PyTorch训练过程的几种方法: 一、使用TensorboardX TensorBoardX是一种基于PyTorch创建的TensorBoard工具,它使用了TensorFlow的tensorboard接口。使用该工具需要对PyTorch进行一些包的安装。 首先安装TensorboardX包: ```python !pip install tensorboardX ``` 然后,创建一个SummaryWriter,监测损失函数、准确率、图像等数据: ```python from tensorboardX import SummaryWriter writer = SummaryWriter("tb_dir") for i in range(100): writer.add_scalar('loss/train', i**2, i) writer.add_scalar('loss/test', 0.7*i**2, i) writer.add_scalar('accuracy/test', 0.9*i, i) writer.add_scalar('accuracy/train', 0.6*i, i) ``` 最后启动TensorBoard,运行 pytorch使用tensorboard的命令行。 ``` tensorboard --logdir tb_dir --host localhost --port 8088 ``` 二、使用PyTorch内置的TensorBoard可视化 pytorch 1.2版本以上,又增加了 PyTorch自带的TensorBoard可视化,PyTorch 内置的与TensorBoard的API兼容,创建SummaryWriter的方法更加简便,而不需要安装多个包。在训练过程,与使用TensorBoardX类似,将需要监测的数据文件写入到SummaryWriter: ```python from torch.utils.tensorboard import SummaryWriter writer = SummaryWriter() for i in range(100): writer.add_scalar('loss/train', i**2, i) writer.add_scalar('loss/test', 0.7*i**2, i) writer.add_scalar('accuracy/test', 0.9*i, i) writer.add_scalar('accuracy/train', 0.6*i, i) ``` 运行 tensorboard --logdir , 输入PyTorch写入的文件即可。 三、使用Fastai集成的TensorBoardCallback 除了TensorboardX和PyTorch内置的TensorBoard可视化外,有另外一个可选方案,即使用Fastai的TensorBoardCallback。Fastai是基于PyTorch的高级深度学习框架,其包含了处理端到端的许多好用工具,包括用于监控训练进程的TensorBoardCallback。下面是使用方法: ```python from fastai.basics import * path = untar_data(URLs.MNIST_SAMPLE) data = ImageDataBunch.from_folder(path) learn = cnn_learner(data, models.resnet18, metrics=accuracy, callback_fns=ShowGraph) learn.fit(5) ``` 设置callback_fns的ShowGraph即可可视化监测模型的训练过程。 总结 PyTorch是一个强大的深度学习框架,它提供了多种工具监测模型的训练过程。TensorBoard是目前广泛使用的可视化工具之一,使用TensorboardX、PyTorch内置的可视化、Fastai的TensorBoardCallback等方法均可实现PyTorch训练过程的监测和可视化,方便开发者了解模型的训练进程,发现问题并进行调整优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值