1.2 Pytorch的安装
此处安装为11.6cuda版本的Pytorch
第二章 pytorch基础知识
2.1 张量
和NumPy比的优势:可以计算梯度,可以使用GPU运算(适合深度学习)
张量操作和ndarray差不多,其中的索引出来的结果与原数据共享内存,修改一个,另一个会跟着修改。如果不想修改,可以考虑使用copy()等方法
import torch
x = torch.rand(4,3)
# 取第二列
print(x[:, 1])
广播机制的作用:使得形状不同的两个张量也能进行运算(通过复制一些元素使得两个张量形状相同)
2.2 autograd & BP
2.2.1 Autograd
torch.Tensor 核心类
tensor_name.requires_grad = True 追踪张量所有操作
tensor_name.backward() 计算梯度,并累加到tensor_name.grad属性
评估模型时会用到:
tensor_name.detach() 将其与计算历史分离,阻止它未来的计算被跟踪