pytorch学习笔记(二) 其他机制

本文介绍了PyTorch中的广播机制,遵循的规则是:1. 每个张量至少一维;2. 从最后一维开始,要么维度为1,要么相同。此外,还讲解了CUDA语法,PyTorch允许轻松地在GPU和CPU间切换数据,并通过nn.DataParallel在多GPU环境下训练模型。
摘要由CSDN通过智能技术生成

broadcast机制

pytroch中的tensor和numpy中的ndarray一样是支持broadcast的。支持原则是:

1.两个tensor都至少有一维

2.从最后一维开始,要么其中一个tensor的维数等于1,要么两个维数相同。


CUDA语法

pytorch可以通过一行代码实现数据在GPU和CPU之间的切换,并且在网络训练过程中,你可以随时将数据从GPU中拿出来进行操作,包括打印之类的,比tf要方便一些。例如:

x = torch.cuda.FloatTensor(1)
# x.get_device() == 0
y = torch.FloatTensor(1).cuda
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值