Python线性神经网络学习笔记

import numpy as np 
import torch 
from torch.utils import data 
from d2l import torch as d2l
true_w = torch.tensor([2, -3.4]) 
true_b = 4.2 
features, labels = d2l.synthetic_data(true_w, true_b, 1000)
#使用 d2l.synthetic_data 函数生成合成数据集,这个函数根据真实的参数 true_w 和 true_b 生成特征和标签。

def load_array(data_arrays, batch_size, is_train=True): #@save 
    """构造一个PyTorch数据迭代器""" 
    dataset = data.TensorDataset(*data_arrays) 
    return data.DataLoader(dataset, batch_size, shuffle=is_train)
batch_size = 10 
data_iter = load_array((features, labels), batch_size)
next(iter(data_iter))

from torch import nn
# nn是神经网络的缩写
net = nn.Sequential(nn.Linear(2, 1))
#用于构建一个按顺序执行的神经网络层的序列。这个类允许你将多个神经网络层(或模块)串联起来,形成一个完整的网络。
#这里nn.Linear(a,b) a是输入神经元的个数,b是输出神经元的个数


#初始化模型参数
net[0].weight.data.normal_(0, 0.01) 
net[0].bias.data.fill_(0)

#定义损失函数
loss = nn.MSELoss()

#定义优化算法
trainer = torch.optim.SGD(net.parameters(), lr=0.03)
#SGD全称Stochastic Gradient Descent,随机梯度下降

#训练
#• 通过调用net(X)生成预测并计算损失l(前向传播)。
#• 通过进行反向传播来计算梯度。 
#• 通过调用优化器来更新模型参数。
num_epochs = 3 
for epoch in range(num_epochs): 
    for X, y in data_iter: 
        l = loss(net(X) ,y) 
        trainer.zero_grad() 
        l.backward() 
        trainer.step() 
    l = loss(net(features), labels) 
    print(f'epoch {epoch + 1}, loss {l:f}')

w = net[0].weight.data 
print('w的估计误差:', true_w - w.reshape(true_w.shape)) 
b = net[0].bias.data 
print('b的估计误差:', true_b - b)

nn.linear()

https://blog.csdn.net/zhaohongfei_358/article/details/122797190

优化器

https://www.zhihu.com/tardis/bd/art/208178763?source_id=1001

Softmax回归——用来处理分类问题

  • 通常为多个输出
  • 输出i是预测为第i类的置信度

深度学习入门(五) softmax回归-CSDN博客

动手学深度学习——softmax回归(原理解释+代码详解)-CSDN博客

  • 5
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值