针对多维向量的处理,本身在sigmoid函数中,数据以向量的方式进行运算--可以看出是1*n的矩阵,在多维向量多个样本的情况下,可以直接理解成矩阵相乘。
通过Linear函数完成矩阵的维度变化。
from ast import Return
from operator import itemgetter
from pickletools import optimize
import numpy.matlib
import torch
import numpy as np
import matplotlib.pyplot as plt
#这一步跟老师写的完全不一样,不明白老师是如何同时读取两个数据的,另外相对路径找不到只能写绝对路径而且要换成双斜杠
x_yuan=np.loadtxt("C:\\anaconda_3\\Lib\\site-packages\\sklearn\\datasets\\data\\diabetes_data.csv.gz",delimiter=' ',dtype=np.float32)
y_yuan=np.loadtxt("C:\\anaconda_3\\Lib\\site-packages\sklearn\\datasets\\data\\diabetes_target.csv.gz",delimiter=' ',dtype=np.float32)
x_data=torch.from_numpy(x_yuan)
y_data=torch.from_numpy(y_yuan)
#y_data=y_data.view(422,1)
class Model(torch.nn.Module):
def __init__(self) :
super(Model,self).__init__()
self.linear1=torch.nn.Linear(10,6)#维度报错,这里老师给的和数据不一致修改一下
self.linear2=torch.nn.Linear(6,4)
self.linear3=torch.nn.Linear(4,1)
self.sigmoid=torch.nn.Sigmoid()
def forward(self,x):
x=self.sigmoid(self.linear1(x))
x=self.sigmoid(self.linear2(x))
x=self.sigmoid(self.linear3(x))
x = x.squeeze(-1) #计算出来的数据是422*1的矩阵,与输入为一维张量不符,需要降维
return x #避免出现参数传递错误,就不设置新参数而是选择x自动代换
model=Model()
sunshi=torch.nn.BCELoss(size_average=True)
youhua=torch.optim.SGD(model.parameters(),lr=0.1)
e_ch=[]
loss_l=[]
for epoch in range(50):
y_pred=model(x_data)
loss = sunshi(y_pred,y_data)
print(epoch,loss.item())
e_ch.append(epoch)
loss_l.append(loss.item())
youhua.zero_grad()
loss.backward()
youhua.step()
plt.plot(e_ch,loss_l)
plt.xlabel("epoch")
plt.ylabel("loss")
plt.show()
不太理解为啥要经过这么多次线性变换,另外模拟出来的结果好像,越变越差了?
这是只有一次线性变换的结果
数据集应该没搞错了,是看着老师视频弄得。
所以是饱和函数选取不对?
换了老师说的ReLU激活函数,全是错。重试了一遍,又不报了。
今天我灵感大发,重写:
from ast import Return
from operator import itemgetter
from pickletools import optimize
import numpy.matlib
import torch
import numpy as np
import matplotlib.pyplot as plt
#这一步跟老师写的完全不一样,不明白老师是如何同时读取两个数据的,另外相对路径找不到只能写绝对路径而且要换成双斜杠
x_yuan=np.loadtxt("C:\\anaconda_3\\Lib\\site-packages\\sklearn\\datasets\\data\\diabetes_data.csv.gz",delimiter=' ',dtype=np.float32)
y_yuan=np.loadtxt("C:\\anaconda_3\\Lib\\site-packages\sklearn\\datasets\\data\\diabetes_target.csv.gz",delimiter=' ',dtype=np.float32)
x_data=torch.from_numpy(x_yuan)
y_data=torch.from_numpy(y_yuan)
#y_data=y_data.view(422,1)
print(x_yuan.shape)
class Model(torch.nn.Module):
def __init__(self) :
super(Model,self).__init__()
self.linear1=torch.nn.Linear(10,6)#维度报错,这里老师给的和数据不一致修改一下
self.linear2=torch.nn.Linear(6,4)
self.linear3=torch.nn.Linear(4,1)
self.sigmoid=torch.nn.Sigmoid()
'''self.activate=torch.nn.Sigmoid'''
def forward(self,x):
x=self.sigmoid(self.linear1(x))
x=self.sigmoid(self.linear2(x))
'''x= torch.tensor(x)'''
x=self.sigmoid(self.linear3(x))
x= x.squeeze(-1) #计算出来的数据是422*1的矩阵,与输入为一维张量不符,需要降维
return x #避免出现参数传递错误,就不设置新参数而是选择x自动代换
model=Model()
sunshi=torch.nn.BCELoss(size_average=True)
youhua=torch.optim.SGD(model.parameters(),lr=0.1)
y_new=torch.sigmoid(y_data)
e_ch=[]
loss_l=[]
for epoch in range(100):
y_pred=model(x_data)
loss = sunshi(y_pred,y_new)
print(epoch,loss.item())
e_ch.append(epoch)
loss_l.append(loss.item())
youhua.zero_grad()
loss.backward()
youhua.step()
plt.plot(e_ch,loss_l)
plt.xlabel("epoch")
plt.ylabel("loss")
plt.show()
其实就多了一行,但是图像
ok,任务结束。