多维数据集
糖尿病分类
每行叫做sample或record(数据库叫法)
每列叫做feature或字段(数据库叫法)
sklearn
logistic多维特征
logistic mini-batch
转换成矩阵运算,向量化运输,可以并行,充分利用CPU或GPU,提高速度
多层logistic
矩阵是一个空间变换函数
8–>2–>1
8–>24–>12–>1
层数越多,学习能力越强,但可能强到把噪声学到了
需要的能力 泛化比较好
1.读文档能力
2.架构能力
CPU架构
主机架构包括内存管理,操作系统,编译原理
各种各样的激活函数
因为ln0
计算y_pred时要改成sigmoid,
import numpy as np
import matplotlib.pyplot as plt
import torch
# 1.dataset 如果读数据部分很复杂,封装在一个模块里,将来提供一些工具函数,工具类把数据读出来
xy=np.loadtxt('F:\\深度学习\\diabetes.csv',delimiter=',',dtype=np.float32)
x_data=torch.from_numpy(xy[:,:-1])
y_data=torch.from_numpy(xy[:,[-1]])
# 2.model (模型构造) 如果模型特别复杂的话,单独放在一个文件里,构造这些模型,然后import
# 继承nn.module
class LogisticRegressionModel(torch.nn.Module):
def __init__(self):
super(LogisticRegressionModel, self).__init__()
self.linear1=torch.nn.Linear(8,6)
self.linear2 = torch.nn.Linear(6, 4)
self.linear3 = torch.nn.Linear(4, 1)
self.sigmoid = torch.nn.Sigmoid()# 上次是函数,这次模块
def forward(self,x):
x = self.sigmoid(self.linear1(x))
x = self.sigmoid(self.linear2(x))
x = self.sigmoid(self.linear3(x))
return x
model=LogisticRegressionModel()
# 3.loss and optimizer (损失和优化器) 使用API
criterion=torch.nn.BCELoss(size_average=False)# 是否求均值,只影响学习率
optimizer=torch.optim.SGD(model.parameters(),lr=0.01)
# 4.training cycle
for epoch in range(1000):# forward
y_pred=model(x_data)
loss=criterion(y_pred,y_data)
print(epoch,loss.item())
optimizer.zero_grad()# backward
loss.backward()
optimizer.step()# update
# # 5.测试在开发集上的平均损失,绘表观察,收敛还是已经过拟合
# # -0.294118,0.487437,0.180328,-0.292929,0,0.00149028,-0.53117,-0.0333333,0
# x_test=torch.Tensor([[-0.294118],[0.487437],[0.180328],[-0.292929],[0],[0.00149028],[-0.53117],[-0.0333333]])
# y_test=model(x_test)
#
# print('y_pred=',y_test.data)
测试时有报错,维度不匹配