sigmoid函数是按照向量计算的一种函数
8维–>1维一定是非线性的,则加一个激活函数来实现非线性变换。
import torchvision
import torch
import torch.nn.functional as F #sigmoid函数定义在此模块下
import numpy as np
#import matplotlib.pyplot as plt
#准备数据集
xy=np.loadtxt('diabetes.csv.gz',delimiter=',',dtype=np.float32)#delimiter指的是分隔符,dtype是数据类型。
x_data =torch.from_numpy(xy[:,:-1])#从所有行,从第一列开始,最后一列不要。
y_data =torch.from_numpy(xy[:,:[-1]])#加[]保证取出的是数据,不是向量。
#定义模型
class Model(torch.nn.Module):
def __init__(self):
super(LogisticRegressionModel,self).__init__()
self.linear1 = torch.nn.Linear(8,6) #指的是输入维度为8,输出维度为6
self.linear2 = torch.nn.Linear(6,4)
self.linear3 = torch.nn.Linear(4,1)
self.sigmoid=torch.nn.Sigmoid()
#self.activate=torch.nn.ReLU() 改变激活函数
def forward(self, x):
x = self.sigmoid(self.linear1(x))#先计算里面的线性变换linear,再调用sigmoid函数
x = self.sigmoid(self.linear2(x))#注意虽然每次实际输出的是o1、o2、o3,但是仍然要按照统一x来写。
x = self.sigmoid(self.linear3(x))
return x
model = Model()#交叉熵和优化器
criterion =torch.nn.BCELoss(size_average=True)
optimizer = torch.optim.SGD(model.parameters(),lr=0.1)
#训练循环
for epoch in range(100):
y_pred=model(x_data)#计算前馈值
loss = criterion(y_pred,y_data)#计算损失
print(epoch,loss.item())
optimizer.zero_grad()#梯度归零
loss.backward()#反向传播
optimizer.step()#更新
注意:当用激活函数ReLU容易使得输出结果小于0,最后一次应结合Sigmoid激活函数,使其输出值在[0,1]之间。
#定义模型
class Model(torch.nn.Module):
def __init__(self):
super(LogisticRegressionModel,self).__init__()
self.linear1 = torch.nn.Linear(8,6) #指的是输入维度为8,输出维度为6
self.linear2 = torch.nn.Linear(6,4)
self.linear3 = torch.nn.Linear(4,1)
self.sigmoid=torch.nn.Sigmoid()
self.activate=torch.nn.ReLU() #改变激活函数
def forward(self, x):
x = self.activate(self.linear1(x))#先计算里面的线性变换linear,再调用sigmoid函数
x = self.activate(self.linear2(x))#注意虽然每次实际输出的是o1、o2、o3,但是仍然要按照统一x来写。
x = self.sigmoid(self.linear3(x))#使其最后输出结果保持光滑
return x