broadcast机制
pytroch中的tensor和numpy中的ndarray一样是支持broadcast的。支持原则是:
1.两个tensor都至少有一维
2.从最后一维开始,要么其中一个tensor的维数等于1,要么两个维数相同。
CUDA语法
pytorch可以通过一行代码实现数据在GPU和CPU之间的切换,并且在网络训练过程中,你可以随时将数据从GPU中拿出来进行操作,包括打印之类的,比tf要方便一些。例如:
x = torch.cuda.FloatTensor(1) # x.get_device() == 0 y = torch.FloatTensor(1).cuda