pytorch练习-逻辑斯蒂回归

逻辑斯蒂回归和线性模型的明显区别是在线性模型的后面,添加了激活函数(非线性变换)

#引入torch
from turtle import color
import torch
#引入numpy
import numpy as np
#引入plt
import matplotlib.pyplot as plt


#准备数据将数据分为第0类和第1类
x_data = torch.Tensor([[1.0],[2.0],[3.0]])
y_data = torch.Tensor([[0],[0],[1]])
 
#将逻辑回归模型分类,模型继承于Module
class LogisticRegressionModel(torch.nn.Module):
    #初始化自身对象
    def __init__(self):
        #super调用父类初始化器
        super(LogisticRegressionModel,self).__init__()
        #构造一个线性函数,输入输出维度都为1
        self.linear = torch.nn.Linear(1,1)

    #定义前馈过程中的计算
    def forward(self,x):
        #调用逻辑回归和线性函数!
        y_pred = torch.sigmoid(self.linear(x))
        #返回y的预测值
        return y_pred

#实例化模型
model = LogisticRegressionModel()
 
#构造二分类交叉熵求损失。设置降维求和
criterion = torch.nn.BCELoss(reduction='sum')
#优化模块中的SGD优化模型中的所有参数,学习率为0.01
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)
 
#循环1000次
for epoch in range(2000):
    #将x代入模型求y的预测值
    y_pred = model(x_data)
    #将y的预测值和真实值代入损失函数中,求损失值
    loss = criterion(y_pred,y_data)
    #输出循环次数,和损失值,用item设置损失值为标量
    print(epoch,loss.item())
    #梯度归零
    optimizer.zero_grad()
    #损失反向传播
    loss.backward()
    #step更新权重
    optimizer.step()
    

#画图
#x是在0到10的范围内取的200个点
x = np.linspace(0,10,200)
#torch.Tensor将x变成张量,view将这个张量变成200行,1列的矩阵
x_t = torch.Tensor(x).view((200,1))

#将x代入模型求出y
y_t = model(x_t)
#将y里面的数据用numpy,提取出来一个数组
y = y_t.data.numpy()

#绘图,设置x,y
plt.plot(x,y)
#设定x轴,y轴的范围,设定颜色
plt.plot([0,10],[0.5,0.5],color='r')
#设置横坐标
plt.xlabel('Hours')
#设置纵坐标
plt.ylabel('Probability of Pass')
#显示网格
plt.grid()
#展示
plt.show()

迭代2000次:

迭代1000次:

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值