1.Tensor的数据类型
(1)torch.FloatTensor:用于生成数据类型为浮点型的Tensor,传来的参数可以是一个列表,也可以是一个维度值。
(2)torch.IntTensor:用于生成数据类型为整型的Tensor,传来的参数可以是一个列表,也可以是一个维度值。
(3)torch.rand:用于生成数据类型为浮点型且维度指定的随机Tensor,随机生成的浮点数据在0~1区间均匀分布。
(4)torch.randn:用于生成数据类型为浮点型且维度指定的随机Tensor,随机生成的浮点数的取值满足均值为0、方差为1的正态分布。
(5)torch.range:用于生成数据类型为浮点型且自定义起始位置和结束为止的Tensor,传来的参数有三个,分别是范围的起始值、范围的结束值和步长。
(6)torch.zeros:用于生成数据类型为浮点型且维度指定的Tensor,生成的浮点数的取值全部都为0。
2.Tensor的运算
(1)torch.abs:求绝对值,输入参数是一个Tensor数据类型的变量。
(2)torch.add:求和,输入参数可以全部是Tensor数据类型的变量,也可以一个是Tensor数据类型的变量,另一个是标量。
(3)torch.clamp:对输入参数按照自定义的范围进行裁剪,输入参数有三个,分别是需要裁剪的Tensor数据类型的变量、裁剪的上边界和裁剪的下边界。裁剪过程:将变量中的每一个元素分别和裁剪的上边界和裁剪的下边界进行比较,如果元素的值小于裁剪的下边界的值,该元素被重写成裁剪下边界的值;同理,如果元素的值大于裁剪的上边界的值,该元素被重写成裁剪上边界的值。
(4)torch.div:求商,输入参数可以全部是Tensor数据类型的变量,也可以一个是Tensor数据类型的变量,另一个是标量。
(5)torch.mul:求积,输入参数可以全部是Tensor数据类型的变量,也可以一个是Tensor数据类型的变量,另一个是标量。
(6)torch.pow:求幂,输入参数可以全部是Tensor数据类型的变量,也可以一个是Tensor数据类型的变量,另一个是标量。
(7)torch.mm:矩阵方式求积,参数的维度需要满足矩阵相乘的前提条件。
(8)torch.mv:采用矩阵与向量之间的乘法规则求积,传入的第一个参数是矩阵,第二个参数是向量。
3.搭建一个简易神经网络
代码示例:
import torch
batch_n = 100 #输入数据的数量
hidden_layer = 100 #经过隐藏层后保留的数据特征的个数
input_data = 1000 #输入数据的数据特征的个数
out_data = 10 #10个分类结果值
x = torch.randn(batch_n, input_data) #100x1000
y = torch.randn(batch_n, out_data) #100x10
w1 = torch.randn(input_data, hidden_layer) #权重初始化 1000x100
w2 = torch.randn(hidden_layer, out_data) #100x10
epoch_r = 20 #训练次数
learning_rate = 1e-6 #学习率
for epoch in range(epoch_r):
h1 = x.mm(w1) #100x100
h1 = h1.clamp(min=0)
y_pred = h1.mm(w2) #100x10
loss = (y_pred - y).pow(2).sum()
print("Epoch:{}, Loss:{:.4f}".format(epoch,loss))
grad_y_pred = 2*(y_pred - y)
grad_w2 = h1.t().mm(grad_y_pred)
grad_h = grad_y_pred.clone()
grad_h = grad_h.mm(w2.t())
grad_h.clamp(min=0)
grad_w1 = x.t().mm(grad_h)
w1 -= learning_rate*grad_w1
w2 -= learning_rate*grad_w2
运行结果: