开篇几句题外话:
这节课的内容跟上一节的递进关系,在于输入数据的维度,不再是原本的一维数值(标量);而是升级为多维向量,这更符合多个自变量共同影响输出的实际应用场景,想起了吴恩达课程中的房价预测模型,卧室数量、厨房数量等,可以绑定在一起构成向量的形式,作为输入。
Lecture07 —— Multiple Dimension Logistic Regression Model 多维输入的逻辑回归模型
说在前面:
- 这部分内容有不少更新指出:
(1)这节课的内容跟上一节的递进关系,在于输入数据的维度,不再是原本的一维数值(标量);
(2)而是升级为多维向量,这更符合多个自变量共同影响输出的实际应用场景;
(3)想起了吴恩达课程中的房价预测模型,卧室数量、厨房数量等,可以绑定在一起构成向量的形式,作为输入。
详细过程:
- 本课程的主要任务是通过将原本简单的标量输入,升级为向量输入,构建线性传播模型:
- 在导入数据阶段就有很大不同:
- 由于课程中导入的数据是
anaconda
安装工具包中的自带的压缩文本数据,所以直接采用numpy
中的loadtxt
读取,这个函数可以直接读取Linux
下压缩的格式,此处是.gz
; - 后面还有两个参数,一个是分隔的字符类型,此处是逗号,另一个是数据的类型,刘老师在课程中讲,只有高端的显卡,才会读取
double
类型的数据,而普通的显卡读取float32
;
- 由于课程中导入的数据是
- 将导入的数据,分成自变量和
label
,这是在文本文件中已经确定好了的,最后一列为y_data
,其余为x_data
; - 创建Model类模型(有巨大变化,非常重要):
- 初始化
init
中,不再只有一个linear
函数;- 要根据线性层的输入和输出要求,自定义不同的
self.linear
,此处是8 → 6 → 4 → 1
;其中两个参数分别为in_channel
数量和out_channel
数量; - 接着,要跟一个
Sigmoid
函数,将最终的输出值,转为0-1
区间上的概率值,这个内容是上一节中通过函数句柄F.sigmoid
实现的,但此处的函数名称要大写,容易出错;
- 要根据线性层的输入和输出要求,自定义不同的
- 前向传播
forward
中,直接调用init
中定义好的各层,此处要注意,输入为x
,返回值也定义为x
吧:x = self.sigmoid(self.linear1(x))
,否则出错了不好排除问题,并且sigmoid
是小写开头,因为在init
中,定义的时候,是以小写开头定义的,注意逻辑;
- 初始化
- 在导入数据阶段就有很大不同:
- 此处跟后续修改内容有很强的联系,刘老师在本节课中没有做运行和输出训练损失曲线等,在其他笔记中找到了相关的内容,做了一个输出显示,在详情中可以查看;
完整代码:
#!usr/bin/env python
# -*- coding:utf-8 _*-
"""
@author: 24_nemo
@file: 07_MultipleDimensionInput_handType.py
@time: 2022/04/10
@desc:
"""
import numpy as np
import torch
import matplotlib.pyplot as plt
import os
os.environ['KMP_DUPLICATE_LIB_OK'] = 'True'
xy = np.loadtxt('../diabetes.csv.gz', delimiter=',', dtype=np.float32)
x_data = torch.from_numpy(xy[:, :-1])
y_data = torch.from_numpy(xy[:, [-1]])
class Model(torch.nn.Module):
def __init__(self):
super(Model, self).__init__()
self.linear1 = torch.nn.Linear(8, 6)
self.linear2 = torch.nn.Linear(6, 4)
self.linear3 = torch.nn.Linear(4, 1)
self.sigmoid = torch.nn.Sigmoid()
def forward(self, x):
x = self.sigmoid(self.linear1(x))
x = self.sigmoid(self.linear2(x))
x = self.sigmoid(self.linear3(x))
return x
model = Model()
criterion = torch.nn.BCELoss(reduction='mean')
optimizer = torch.optim.SGD(model.parameters(), lr=0.1)
epoch_list = []
loss_list = []
for epoch in range(100):
# Forward 前向传播
y_hat = model(x_data)
loss = criterion(y_hat, y_data)
print(epoch, loss.item())
# Backward 反向传播
optimizer.zero_grad()
loss.backward()
# Update 更新
optimizer.step()
epoch_list.append(epoch)
loss_list.append(loss.item())
if epoch % 10 == 9:
y_pred_label = torch.where(y_hat >= 0.5, torch.tensor([1.0]), torch.tensor([0.0]))
accuracy = torch.eq(y_pred_label, y_data).sum().item() / y_data.size(0)
print("loss = ", loss.item(), "acc = ", accuracy)
plt.plot(epoch_list, loss_list)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()
运行结果:
上一篇:
【Pytorch深度学习实践】B站up刘二大人之Logistics Regression-代码理解与实现(5/9)
下一篇:
【Pytorch深度学习实践】B站up刘二大人之Dataset & DataLoader-代码理解与实现(7/9)