逻辑斯蒂回归pytorch

本文介绍了逻辑回归在二分类问题中的应用,并通过PyTorch实现了一个简单的逻辑回归模型。模型中使用了Sigmoid激活函数,通过梯度下降法进行训练。在训练过程中观察到模型收敛较慢,建议调整学习率。最后,将模型预测结果进行了可视化,展示了概率随输入变化的曲线,便于理解模型行为。
摘要由CSDN通过智能技术生成

sigmoid functions:
在这里插入图片描述
tanh(x)在lstm里经常使用。
上图中最常用的就是逻辑斯蒂回归函数:
逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某种事物的可能性。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述


import torch 

x_data=torch.Tensor([[1.0],[2.0],[3.0]])
y_data=torch.Tensor([[0],[0],[1]])

class LogisticRegressionModel(torch.nn.Module):
    def __init__(self):
        super(LogisticRegressionModel,self).__init__()
        self.linear=torch.nn.Linear(1,1)
        
    def forward(self,x):
        y_pred=torch.sigmoid(self.linear(x))
        return y_pred
model=LogisticRegressionModel()

criterion=torch.nn.BCELoss(size_average=False)
optimizer=torch.optim.SGD(model.parameters(),lr=0.01)

for epoch in range(1000):
    y_pred=model(x_data)
    loss=criterion(y_pred,y_data)
    print(epoch,loss.item())
    
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

运行结果:
在这里插入图片描述
在这里插入图片描述
收敛的比较慢,可以调整学习率试试。

我们把图形可视化一下:


import numpy as np
import matplotlib.pyplot as plt

x=np.linspace(0,10,200) #0-10均分成200份,生成的是一维的数组
x_t=torch.Tensor(x).view((200,1))
#view就是规定数组的形状的,第一维是200,第二维是1200在这里就表示batch了
y_t=model(x_t)
y=y_t.data.numpy()#numpy把这200个数都拿出来变成一维的了
plt.plot(x,y)#函数曲线
plt.plot([1,10],[0.5,0.5],c='r') 
#(1,0.5)(10,0.5)两点连线,颜色是红色
plt.xlabel('Hours')
plt.ylabel('Probability of Pass')
plt.grid()#生成像是表格一样的线
plt.show()

在这里插入图片描述

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值