神经网络梯度下降解决异或问题

 通过神经网络,可以解决异或问题(证明神经网络可以解决线性不可分问题)

import torch
from torch import nn, optim
from torch.nn import functional as F


class NLP(nn.Module):
    def __init__(self, input_dim, hidden_dim, num_class):
        super(NLP, self).__init__()
        self.linear1 = nn.Linear(input_dim, hidden_dim)
        self.activate = F.relu
        self.linear2 = nn.Linear(hidden_dim, num_class)

    def forward(self, inputs):
        hidden = self.linear1(inputs)
        activation = self.activate(hidden)
        outputs = self.linear2(activation)
        log_probs = F.softmax(outputs, dim=1)
        return log_probs


x_train = torch.tensor([[0.0, 0.0], [0.0, 1.0], [1.0, 0.0], [1.0, 1.0]])
y_train = torch.tensor([0, 1, 1, 0])

model = NLP(input_dim=2, hidden_dim=5, num_class=2)

criterion = nn.NLLLoss
criteria = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.05)  # 学习率为0.05

for epoch in range(10000):      # 训练次数
    y_pred = model(x_train)     # 训练
    loss = criteria(y_pred, y_train)    # 计算损失
    optimizer.zero_grad()   # 将梯度置为0,防止累加
    loss.backward()     # 反向传播
    optimizer.step()    # 更新参数

print("Parameters:")
for name, param in model.named_parameters():    # 参数 值
    print(name, param.data)

y_pred = model(x_train)
print(y_pred)
print("Predicted results:", y_pred.argmax(dim=1))

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值