1.数据集:
传送门:内含刘老师讲课视频PPT及相关数据集,本文所用数据集名为diabetes.cvs.gz
链接:https://pan.baidu.com/s/1vZ27gKp8Pl-qICn_p2PaSw
提取码:cxe4
其中,x1,,,x8表示不同特征,y表示分类。
2.模型:
刘老师视频中采用以上模型,本文线性层输出特征改为4,2,1,其他保持不变。
loss:BCELoss
optimizer:SGD
3.pthon代码:
import numpy as np
import torch
from torch import nn
from torch.nn import Linear, BCELoss
from torch.optim import SGD
import matplotlib.pyplot as plt
# 导入数据集,前8列表示特征,最后一列表示分类
xy = np.loadtxt("diabetes.csv.gz", delimiter=',', dtype=np.float32)
# 取第六行及之后的所有数据作为训练集
x_data = torch.Tensor(xy[6:, :-1])
y_data = torch.Tensor(xy[6:, [-1]])
# 建立模型,3个线性层,3个sigmoid非线性激活函数
class model(nn.Module):
def __init__(self):
super(model, self).__init__()
self.linear1 = Linear(8, 4, bias=True)
self.linear2 = Linear(4, 2, bias=True)
self.linear3 = Linear(2, 1, bias=True)
def forward(self, x):
x = torch.sigmoid(self.linear1(x))
x = torch.sigmoid(self.linear2(x))
x = torch.sigmoid(self.linear3(x))
return x
# 类实例化
my_model = model()
# 二分类问题,继续采用BCELoss
loss_cal = BCELoss(size_average=True)
# 随机梯度下降
optimizer = SGD(my_model.parameters(), lr=0.01)
# 空列表
epoch_list = []
loss_list = []
for epoch in range(100000):
epoch_list.append(epoch)
# 前向计算
y_pred = my_model(x_data)
loss = loss_cal(y_pred, y_data)
loss_list.append(loss.item())
# 梯度清零
optimizer.zero_grad()
# 反向传播
loss.backward()
# 参数调整
optimizer.step()
# 画出loss随epoch变化曲线图
plt.figure()
plt.plot(epoch_list, loss_list)
plt.xlabel("epoch")
plt.ylabel("loss")
plt.show()
# 取前五行的所有数据作为训练集
x_test = torch.Tensor(xy[:5, :-1])
y_test = torch.Tensor(xy[:5, [-1]])
y_test1 = my_model(x_test)
print(y_test1.data)
print(y_test.data)
# 测试结果:
# tensor([[0.2201],
# [0.9745],
# [0.1834],
# [0.9952],
# [0.1783]])
# tensor([[0.],
# [1.],
# [0.],
# [1.],
# [0.]])
4.可视化结果:
随着epoch增加,loss逐渐减小并收敛。
5.以上均为个人学习pytorch基础入门中的基础,浅做记录,如有错误,请各位大佬批评指正!
6.关于问题描述和原理的部分图片参考刘老师的视频课件,本文也是课后作业的一部分,特此附上视频链接,《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili,希望大家都有所进步!!