PyTorch实现一个简单的二分类网络模型

import torch 
from torch.autograd import Variable 
import torch.nn.functional as F 
import matplotlib.pyplot as plt 

n_data = torch.ones(100,2) 
x0 = torch.normal(2*n_data, 1)
y0 = torch.zeros(100) 
x1 = torch.normal(-2*n_data, 1) 
y1 = torch.ones(100)

x = torch.cat((x0, x1), 0).type(torch.FloatTensor) # 组装(连接) 
y = torch.cat((y0, y1), 0).type(torch.LongTensor)

x, y = Variable(x), Variable(y) 

class Net(torch.nn.Module):
    def __init__(self, n_feature, n_hidden, n_output):
        super(Net, self).__init__()
        self.hidden = torch.nn.Linear(n_feature, n_hidden)
        self.out = torch.nn.Linear(n_hidden, n_output)
    
    def forward(self, x):
        x = F.relu(self.hidden(x))
        x = self.out(x)
        return x

net = Net(2, 10, 2)

optimizer = torch.optim.SGD(net.parameters(), lr = 0.012)
for t in range(100):
    out = net(x)
    loss = torch.nn.CrossEntropyLoss()(out, y)
 
  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是使用PyTorch搭建一个简单的全连接神经网络实现二分类问题的代码: ```python import torch import torch.nn as nn # 定义全连接神经网络模型 class Net(nn.Module): def __init__(self, input_dim, hidden_dim, output_dim): super(Net, self).__init__() self.fc1 = nn.Linear(input_dim, hidden_dim) self.relu = nn.ReLU() self.fc2 = nn.Linear(hidden_dim, output_dim) self.sigmoid = nn.Sigmoid() def forward(self, x): out = self.fc1(x) out = self.relu(out) out = self.fc2(out) out = self.sigmoid(out) return out # 定义训练函数 def train(model, X, y, criterion, optimizer, epochs): for epoch in range(epochs): optimizer.zero_grad() y_pred = model(X) loss = criterion(y_pred, y) loss.backward() optimizer.step() if (epoch+1) % 100 == 0: print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, epochs, loss.item())) # 定义测试函数 def test(model, X): model.eval() with torch.no_grad(): y_pred = model(X) y_pred = (y_pred > 0.5).float() return y_pred # 数据准备 X = torch.tensor([[0,0], [0,1], [1,0], [1,1]], dtype=torch.float32) y = torch.tensor([[0], [1], [1], [0]], dtype=torch.float32) # 定义模型参数 input_dim = 2 hidden_dim = 5 output_dim = 1 learning_rate = 0.1 epochs = 1000 # 实例化模型,定义损失函数和优化器 model = Net(input_dim, hidden_dim, output_dim) criterion = nn.BCELoss() optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate) # 训练模型 train(model, X, y, criterion, optimizer, epochs) # 测试模型 y_pred = test(model, X) print('预测结果:', y_pred) ``` 这是一个简单的全连接神经网络模型,包含一个输入层、一个隐藏层和一个输出层,用于解决二分类问题,使用的损失函数为元交叉熵损失函数(BCELoss),优化器为随机梯度下降(SGD)。在训练过程中,我们使用了ReLU激活函数,并对输出层进行了sigmoid激活,以确保输出值在0到1之间。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值