PyTorch学习——Tensor

from __future__ import print_function
import torch as t
import numpy as np

# 分割测试样例
print('-'*30)

# torch 的版本
print('t.__version__: ' + t.__version__)

# 分割测试样例
print('-'*30)

# 构建 5x3 矩阵,只是分配了空间,未初始化
x = t.Tensor(5, 3)
print('t.Tensor(5, 3): \n' + str(x))
# 构建 2x2 的矩阵,并且赋值了
x = t.Tensor([[1,2],[3,4]])
print('t.Tensor([[1,2],[3,4]]): \n' + str(x))

# 分割测试样例
print('-'*30)

# 使用 [0,1] 均匀分布随机初始化二维数组
x = t.rand(5, 3)
print('x = t.rand(5, 3): -x\n' + str(x))

# 分割测试样例
print('-'*30)

# 查看 x 的形状
# torch.Size 是 tuple 对象的子类
print('x.size(): ' + str(x.size()))
# 查看行的个数
print('x.size()[0]: ' + str(x.size()[0]) + ', x.size(0): ' + str(x.size(0)))
# 查看列的个数
print('x.size()[1]: ' + str(x.size()[1]) + ', x.size(1): ' + str(x.size(1)))

# 分割测试样例
print('-'*30)

# 加法的两种写法
x = t.rand(5,3)
y = t.rand(5,3)
print('x: \n' + str(x))
print('y: \n' + str(y))
# 加法的第一种写法
print('x+y: \n' + str(x+y))
# 加法的第二种写法
print('t.add(x, y): \n' + str(t.add(x, y)))
# 指定加法结果的输出目标为 result
# 首先预先分配控件
result = t.Tensor(5, 3)
# 设置 out 参数等于 result
t.add(x, y, out=result)
print('t.add(x, y, out=result): -result: \n' + str(result))

# 分割测试样例
print('-'*30)

# 原来的y
print('y: \n' + str(y))
# 此种加法不改变y的值,返回值需要另外赋值
y.add(x)
print('y.add(x): -y\n' + str(y))
# 此种加法改变y的值,返回值赋值给了y
y.add_(x)
print('y.add_(x): -y\n' + str(y))
# 注意,函数名后面带下划线_ 的函数会修改Tensor本身。
# 例如,x.add_(y)和x.t_()会改变 x,
# 但x.add(y)和x.t()返回一个新的Tensor,而x不变。

# 分割测试样例
print('-'*30)

# 选取操作
print('x: \n' + str(x))
# 取到第0行
print('x[0, :]: \n' + str(x[0, :]))
# 取到第1列
print('x[:, 1]: \n' + str(x[:, 1]))

# 分割测试样例
print('-'*30)

# 新建一个全为 1 的 Tensor
a = t.ones(5)
print('a = t.ones(5) : -a\n' + str(a))

# 分割测试样例
print('-'*30)

# 将 Tensor 类型转化为 Numpy 类型
b = a.numpy()
print('b = a.numpy() : -b\n' + str(b))

# 分割测试样例
print('-'*30)

# 将 Numpy 类型转化为 Tensor 类型
a = np.ones(5)
b = t.from_numpy(a)
print('a = np.ones(5) : -a\n' + str(a))
print('b = t.from_numpy(a) : -b\n' + str(b))

# 分割测试样例
print('-'*30)

# Tensor和numpy对象共享内存,
# 所以他们之间的转换很快,而且几乎不会消耗什么资源。
# 但这也意味着,如果其中一个变了,另外一个也会随之改变。
# 以 '_' 结尾的函数会修改自身
b.add_(1)
print('b.add_(1) : -a\n' + str(a))
print('b.add_(1) : -b\n' + str(b))

# 分割测试样例
print('-'*30)

# 获取某一个元素的值
scalar = b[0]
print('b: \n' + str(b))
print('scalar = b[0] : \n' + str(scalar))
print('scalar.size() : ' + str(scalar.size()))
print('scalar.item() : ' + str(scalar.item()))

# 分割测试样例
print('-'*30)

# tensor 和 scalar 的区别
tensor = t.tensor([2])
print('tensor: ' + str(tensor))
print('scalar: ' + str(scalar))
print('tensor.size(): ' + str(tensor.size()))
print('scalar.size(): ' + str(scalar.size()))
print('tensor.item(): ' + str(tensor.item()))
print('scalar.item(): ' + str(scalar.item()))

# 分割测试样例
print('-'*30)

# 建立对象的时候,使用的是x = t.Tensor(5, 3)
# torch.tensor 与 np.array 相似
# t.tensor()或者tensor.clone()总是会进行数据拷贝,
# 新tensor和原来的数据不再共享内存
tensor = t.tensor([3, 4])
scalar = t.tensor(3)
print('scalar: ' + str(scalar))
old_tensor = tensor
new_tensor = old_tensor.clone()
new_tensor[0] = 1111
print('old_tensor: ' + str(old_tensor))
print('new_tensor = old_tensor.clone(): -new_tensor[0] = 1111: -\nnew_tensor: ' + str(new_tensor))

# 分割测试样例
print('-'*30)

new_tensor = old_tensor.detach()
new_tensor[0] = 111
print('old_tensor: ' + str(old_tensor))
print('new_tensor = old_tensor.datach(): -new_tensor[0] = 1111: -\nnew_tensor: ' + str(new_tensor))

# 分割测试样例
print('-'*30)

# Tensor可通过.cuda 方法转为GPU的Tensor,从而享受GPU带来的加速运算。
# 在不支持 CUDA 的机器下,下一步还是在 CPU 上运行
device = t.device('cuda:0' if t.cuda.is_available() else "cpu")
x = x.to(device)
y = y.to(x.device)
z = x+y
print('x = x.to(device) : -x\n' + str(x))
print('y = y.to(x.device) : -y\n' + str(y))
print('z = x+y : -z\n' + str(z))
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值