深度学习day06 逻辑斯蒂回归

深度学习day06 逻辑斯蒂回归

前置知识

  1. 以糖尿病病人预测为例
  2. 预测的是离散的值属于分类问题,预测的是连续的值属于回归问题。
  3. 逻辑斯蒂回归是分类的模型。通过预测出输出值属于0~9各个数字的概率,而达到分类的目的。为什么对于The MNIST Dataset不能用线性回归模型,因为线性模型是输出的7、8、9并不是像数字在一维数组中有那样的递增性,输入的数字7和9反而比7和8更接近。
  4. 逻辑斯蒂回归和线性模型的明显区别是在线性模型的后面,添加了激活函数(本文中用的是Sigmoid)
  5. 因为这次的结果不是说两个标量值,而是两个分布,所以不能用均方误差损失,那么对于这种比较两种分布的差异,我们可以使用:KL散度,cross-entropy交叉熵
    Sigmoid函数:
    在这里插入图片描述
    逻辑斯蒂回归计算图:
    在这里插入图片描述
    二分类的两种损失函数:预测与标签越接近,BCE损失越小
    在这里插入图片描述

详细代码

在这里插入图片描述
在这里插入图片描述

  1. 视频中代码F.sigmoid(self.linear(x))会引发warning,此处更改为torch.sigmoid(self.linear(x))
  2. BCELoss 是CrossEntropyLoss的一个特例,只用于二分类问题,而CrossEntropyLoss可以用于二分类,也可以用于多分类。 如果是二分类问题,建议BCELoss
import torch
# import torch.nn.functional as F
 
# 步骤一:prepare dataset
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])
 
# 步骤二:design model using class
class LogisticRegressionModel(torch.nn.Module):
    def __init__(self):
        super(LogisticRegressionModel, self).__init__()
        self.linear = torch.nn.Linear(1,1) #初始化w和b
 
    def forward(self, x):
        # y_pred = F.sigmoid(self.linear(x))
        y_pred = torch.sigmoid(self.linear(x))
        return y_pred
model = LogisticRegressionModel()
 
# 步骤三:construct loss and optimizer
# 默认情况下,loss求的是小批量loss的平均loss,如果size_average=False的话,loss会被累加但不乘1/N。
criterion = torch.nn.BCELoss(size_average = False) 
optimizer = torch.optim.SGD(model.parameters(), lr = 0.01)
 
# 步骤四:training cycle forward, backward, update
for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
    print(epoch, loss.item())
 
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

# 打印一个预测查看
print('w = ', model.linear.weight.item())
print('b = ', model.linear.bias.item())
 
x_test = torch.Tensor([[4.0]])
y_test = model(x_test)
print('y_pred = ', y_test.data)

# 打印200个预测并画图查看
x = np.linspace(0, 10, 200)
x_t = torch.Tensor(x).view((200, 1))
y_t = model(x_t)
y = y_t.data.numpy()
plt.plot(x, y)
plt.plot([0, 10], [0.5, 0.5], c='r')
plt.xlabel('Hours')
plt.ylabel('Probability of Pass')
plt.grid()
plt.show()

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
深度学习实验中的循环神经网络是一种用于处理连续性数据的神经网络模型。它在神经元层之间不仅建立了层与层之间的权连接,还在层之间的神经元之间建立了权连接。这使得循环神经网络能够对序列数据进行处理,并且具有记忆能力。循环神经网络的一种简单实现是简单循环网络(Simple Recurrent Network,SRN)。 关于深度学习实验中的循环神经网络的更详细的信息,可以参考邱锡鹏老师的博客以及动手学深度学习的官方文档。这些资源提供了关于循环神经网络的理论知识和实际实施的指导。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [神经网络与深度学习实验day13-循环神经网络:RNN记忆能力实验](https://blog.csdn.net/ABU366/article/details/127912426)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [深度学习循环神经网络](https://download.csdn.net/download/baidu_35560935/13086725)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值