Pytorch搭建神经网络的小案例

推荐学习b站视频

torch.Tensor()默认是torch.FloatTensor()的简称,创建的为float32位的数据类型;
torch.LongTensor是64位整型
optimizer.zero_grad() 清空过往梯度
loss.backward():反向传播
optimizer.step():在反向传播后更新参数
使用GPU加速,注意要把模型和数据都放到GPU上
device=torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model=MyModel().to(device)
x,y=x.to(device),y.to(device)
import torch
import torch.nn as nn
import torch.utils.data as Data
import torch.optim as optim
import torch.nn.functional as F
import numpy as np
#使用GPU加速
device=torch.device('cuda' if torch.cuda.is_available() else 'cpu')
#构建数据集
def fizzbuzz_encode(number):#判断number属于哪个类别
    if number%15==0:
        return 3#fizzbuzz
    elif number%5==0:
        return 2#buzz
    elif number%3==0:
        return 1#fizz
    return 0
def fizzbuzz_decode(number,label):#返回number真实类别
    return [str(number),'fizz','buzz','fizzbuzz'][label]


NUM_DIGITS=10
def binary_encode(number):#将一个数转换成他的NUM_DIGITS位二进制数
    return np.array([number >> d&1 for d in range(NUM_DIGITS)][::-1])
# 1:[0 0 0 0 0 0 0 0 0 1]

x_train=torch.Tensor([binary_encode(number) for number in range(100,1024)])
y_train=torch.LongTensor([fizzbuzz_encode(number) for number in range(100,1024)])

class MyDataset(Data.Dataset):#继承torch.utils.data.Dataset
    def __init__(self,x_train,y_train):
        self.x_train=x_train
        self.y_train=y_train

    def __getitem__(self, idx):#函数重写返回编号为idx的数据
        return self.x_train[idx],self.y_train[idx]

    def __len__(self):#限制数据长度
        return len(self.x_train)

train_dataset=MyDataset(x_train,y_train)

train_loader=Data.DataLoader(train_dataset,batch_size=16,shuffle=True)#DataLoader返回打包好的数据,batch_size=数据个数,shuffle=True打乱数据
#Dataset一次只能取出一个样本数据,使用Dataloader可以获得多个样本数据
# print(iter(train_loader).next())
#以上为构建数据集,通常构建数据集比较消耗时间
class MyModel(nn.Module):
    def __init__(self):#在这里定义网络层
        super(MyModel, self).__init__()
        self.liner1=nn.Linear(10,64)
        self.activate1=nn.ReLU()
        self.liner2=nn.Linear(64,8)
        self.activate2=nn.ReLU()
        self.liner3=nn.Linear(8,4)

    def forward(self,x):#前向传播
        output=self.liner1(x)
        output=self.activate1(output)
        output=self.liner2(output)
        output=self.activate2(output)
        output=self.liner3(output)
        return output

model=MyModel().to(device)#建立模型,将模型放到GPU上(也要把数据放到GPU上)
loss_fn=nn.CrossEntropyLoss()#构建损失函数
optimizer=optim.Adam(model.parameters(),lr=0.01)#构建优化器(模型参数,学习率)

Epoch=100

for epoch in range(Epoch):
    idx=0
    for x,y in train_loader:
        x,y=x.to(device),y.to(device)
        pred=model(x)
        loss=loss_fn(pred,y)
        idx+=1
        if  idx%10==0:
            print(loss)
        #三件套
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

#可以使用GPU加素计算
x_test=torch.Tensor([binary_encode(15)]).to(device)#构建一个验证集,也放到GPU上
pred=model(x_test)
softmax=nn.Softmax(dim=1)
pred=softmax(pred)
result=np.argmax(pred.cpu().detach().numpy(),1)
print(result)#输出预测的分类
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

chp的博客

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值