动手学习深度学习-线性回归的简洁实现

# coding=utf-8
import torch.nn as nn
import numpy as np
import torch
from torch.nn import init

num_inputs = 2
num_examples = 1000
true_w = [2, -3.4]
true_b = 4.2
# features是训练数据特征
features = torch.tensor(np.random.normal(0, 1, (num_examples, num_inputs)), dtype=torch.float)
# np.random.normal(0, 1, (num_examples, num_inputs)): 这部分使用了NumPy库的random.normal函数生成一个随机数列。
# 该数列的形状为(num_examples, num_inputs),
# 即包含num_examples个样本和每个样本有num_inputs个特征。这些随机数是从均值为0、标准差为1的正态分布中生成的。
labels = true_w[0] * features[:, 0] + true_w[1] * features[:, 1] + true_b
# features[:,0]表示对一个二维张量(或矩阵)features进行切片操作,选取所有行的第0列元素。
labels += torch.tensor(np.random.normal(0, 0.01, size=labels.size()), dtype=torch.float)

import torch.utils.data as Data

batch_size = 10
dataset = Data.TensorDataset(features, labels)
# TensorDataset是PaddlePaddle深度学习平台中提供的一个数据集类,用于将数据和标签组成一个数据集对象。
data_iter = Data.DataLoader(dataset, batch_size, shuffle=True)
# Data.DataLoader是PyTorch提供的一个数据加载器,用于对数据进行批量加载和处理

for x, y in data_iter:
    print(x, y)
    break




# 定义模型
class LinearNet(nn.Module):  # 继承自PyTorch中的nn.Module类
    def __init__(self, n_feature):
        super(LinearNet, self).__init__()  # 调用父类nn.Module的构造函数,用于初始化神经网络模型。
        self.linear = nn.Linear(n_feature, 1)  # 其中输入特征的维度为n_feature,输出特征的维度为1

    def forward(self, x):
        y = self.linear(x)
        return y


net = LinearNet(num_inputs)
# print(net)

# form param in net.parameters():
# 模型参数生成器
for param in net.parameters():
    print(param)

# 初始化模型参数
#from torch.nn import init


#init.normal_(net[0].weight, mean=0, std=0.01)  # 表示将第一层权重初始化为均值为0、标准差为0.01的正态分布
#init.constant_(net[0].bias, val=0)  # 表示将第一层偏置项初始化为常数0
#为什么和上面所写的不一样,4.1节
init.normal_(net.linear.weight, mean=0, std=0.01)
init.constant_(net.linear.bias, val=0)  # 表示将第一层偏置项初始化为常数0

# 定义损失函数
loss = nn.MSELoss()

# 定义优化算法
import torch.optim as optim
#这是固定的优化率,还可以设置动态优化率
optimizer = optim.SGD(net.parameters(), lr=0.03)
print(optimizer)

#定义训练过程
num_epochs=3
for epoch in range(1,num_epochs+1):
    for x,y in data_iter:
        output=net(x)
        l=loss(output,y.view(-1,1))#output 是模型的输出结果,y 是真实标签,.view(-1,1) 是将 y 进行形状变换的操作
        optimizer.zero_grad()
        l.backward()#调用反向传播函数
        optimizer.step()#optimizer.step()是PyTorch中的一个函数,用于更新模型的参数
    print("epoch %d,loss %f"%(epoch,l.item()))


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值