第六讲逻辑斯蒂回归

第六讲逻辑斯蒂回归的笔记与源码

B站 刘二大人 教学视频 传送门:逻辑斯蒂回归

1、线性模型与逻辑模型区别增加了非线性激活函数

 注:预测与标签的越接近,说明BCE损失值越小

代码事项1:

这里的size_average=False 新版使用reduction='sum' 具体代码如下

criterion=torch.nn.BCELoss(reduction='sum')

代码事项2:

这里的np.linspace(0,10,200)

返回的结果是start 到end间(0到10),具有相同间隔的数,产生num个数(200),endpoint=True(默认,指是否会有最后那个数10)

torch.Tensor(x).view((200,1))

.view(200,1) 会将相同的数据转换成200行1列的数据

torch.Tnsor(x).view(200,1)的用法

代码事项3:

y_t=model(x_t) 实际的y_t是一个tensor

y_t.data.numpy() 将tensor中的数组取出

c='r'为color==red

代码事项3:

视频中代码F.sigmoid(self.linear(x))会引发错误警告,此处更改为torch.sigmoid(self.linear(x))

torch.sigmoid与torch.nn.sigmoid区别

torch.sigmoid()和torch.nn.sigmoid()和torch.nn.functional.sigmoid()的区别

代码事项4:

BCELoss 是CrossEntropyLoss的一个特例,只用于二分类问题,而CrossEntropyLoss可以用于二分类,也可以用于多分类。如果是二分类问题,建议BCELoss

错错莫的笔记


话不多说直接代码:

import torch
import numpy as np
# import torch.nn.functional as F
import matplotlib.pyplot as plt
import os
os.environ["KMP_DUPLICATE_LIB_OK"]='True'


#第一步:Prepare dataset 准备数据集
x_data=torch.Tensor([[1.0],[2.0],[3.0]])
y_data=torch.Tensor([[0],[0],[1]])

#第二步:Design model using class 设置模型
#nn是neural networdk 神经网络
class LogisticRegressionModel(torch.nn.Module):
    def __init__(self):
        super(LogisticRegressionModel, self).__init__()
        self.linear=torch.nn.Linear(1,1)
    def forward(self,x):
        #新版会报错F.sigmoid
        y_pred=torch.sigmoid(self.linear(x))
        return y_pred

#linearModel继承了nn.module对象,会调用该对象的__call__。__call__方法内部,会调用forward
model=LogisticRegressionModel()

#第三步:struct loss and optimizer 构造损失函数和优化器
#这个参数将来只需要y^和y就可以求出损失
#这里的size_average=False 新版使用reduction='sum'
criterion=torch.nn.BCELoss(reduction='sum')
#优化模块 SGD是个类 做实例化:这是优化器对象,lr是学习率
optimizer=torch.optim.SGD(model.parameters(),lr=0.01)

#第四步:Training cycle  相应训练循环
for epoch in range(100):
    y_pred=model(x_data)
    loss=criterion(y_pred,y_data)
    print('epoch:',epoch,'loss:',loss.item())

    #梯度归0
    optimizer.zero_grad()
    loss.backward()
    optimizer.step() #update

#Output weight and bias
print('w=',model.linear.weight.item())
print('b=',model.linear.bias.item())

#Test Model
x_test=torch.Tensor([[4.0]])
y_test=model(x_test)
print('y_pred=',y_test.data.item())

x=np.linspace(0,10,200)
x_t=torch.Tensor(x).view((200,1))
y_t=model(x_t)
y=y_t.data.numpy()
plt.plot(x,y)
plt.plot([0,10],[0.5,0.5],c='r')
plt.xlabel("Hours")
plt.ylabel("Probability of Pass")
plt.grid()
plt.show()

运行结果:

........

epoch: 94 loss: 1.5546190738677979
epoch: 95 loss: 1.5534307956695557
epoch: 96 loss: 1.5522444248199463
epoch: 97 loss: 1.5510601997375488
epoch: 98 loss: 1.5498781204223633
epoch: 99 loss: 1.5486979484558105
w= 0.483514666557312
b= -1.229051113128662
y_pred= 0.6692970395088196

进程已结束,退出代码为 0


效果图:预测成功率


完结,若有错误敬请指正 感谢!

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值