# coding=utf-8
import torch.nn as nn
import numpy as np
import torch
from torch.nn import init
num_inputs = 2
num_examples = 1000
true_w = [2, -3.4]
true_b = 4.2
# features是训练数据特征
features = torch.tensor(np.random.normal(0, 1, (num_examples, num_inputs)), dtype=torch.float)
# np.random.normal(0, 1, (num_examples, num_inputs)): 这部分使用了NumPy库的random.normal函数生成一个随机数列。
# 该数列的形状为(num_examples, num_inputs),
# 即包含num_examples个样本和每个样本有num_inputs个特征。这些随机数是从均值为0、标准差为1的正态分布中生成的。
labels = true_w[0] * features[:, 0] + true_w[1] * features[:, 1] + true_b
# features[:,0]表示对一个二维张量(或矩阵)features进行切片操作,选取所有行的第0列元素。
labels += torch.tensor(np.random.normal(0, 0.01, size=labels.size()), dtype=torch.float)
import torch.utils.data as Data
batch_size = 10
dataset = Data.TensorDataset(features, labels)
# TensorDataset是PaddlePaddle深度学习平台中提供的一个数据集类,用于将数据和标签组成一个数据集对象。
data_iter = Data.DataLoader(dataset, batch_size, shuffle=True)
# Data.DataLoader是PyTorch提供的一个数据加载器,用于对数据进行批量加载和处理
for x, y in data_iter:
print(x, y)
break
# 定义模型
class LinearNet(nn.Module): # 继承自PyTorch中的nn.Module类
def __init__(self, n_feature):
super(LinearNet, self).__init__() # 调用父类nn.Module的构造函数,用于初始化神经网络模型。
self.linear = nn.Linear(n_feature, 1) # 其中输入特征的维度为n_feature,输出特征的维度为1
def forward(self, x):
y = self.linear(x)
return y
net = LinearNet(num_inputs)
# print(net)
# form param in net.parameters():
# 模型参数生成器
for param in net.parameters():
print(param)
# 初始化模型参数
#from torch.nn import init
#init.normal_(net[0].weight, mean=0, std=0.01) # 表示将第一层权重初始化为均值为0、标准差为0.01的正态分布
#init.constant_(net[0].bias, val=0) # 表示将第一层偏置项初始化为常数0
#为什么和上面所写的不一样,4.1节
init.normal_(net.linear.weight, mean=0, std=0.01)
init.constant_(net.linear.bias, val=0) # 表示将第一层偏置项初始化为常数0
# 定义损失函数
loss = nn.MSELoss()
# 定义优化算法
import torch.optim as optim
#这是固定的优化率,还可以设置动态优化率
optimizer = optim.SGD(net.parameters(), lr=0.03)
print(optimizer)
#定义训练过程
num_epochs=3
for epoch in range(1,num_epochs+1):
for x,y in data_iter:
output=net(x)
l=loss(output,y.view(-1,1))#output 是模型的输出结果,y 是真实标签,.view(-1,1) 是将 y 进行形状变换的操作
optimizer.zero_grad()
l.backward()#调用反向传播函数
optimizer.step()#optimizer.step()是PyTorch中的一个函数,用于更新模型的参数
print("epoch %d,loss %f"%(epoch,l.item()))
动手学习深度学习-线性回归的简洁实现
于 2023-10-11 21:49:14 首次发布