还是 那句老话!!!注意看代码注释和运行结果,解析全部写在代码注释中了。
一. 代码
import torch
import torch.nn.functional as F
import matplotlib.pyplot as plt
from torch.autograd import Variable
# 先自己构造数据
x = torch.unsqueeze(torch.linspace(-1,1,100),dim=1) # unsqueeze是将数据变成二维,因为torch好像不能处理一维的数据
print(x)
y = x.pow(2) + 0.2*torch.rand(x.size()) # 构建方程式
print(y)
# 实际上现在的pytorch版本tensor也已经支持反向传播,所以用不用Variable没差别
x,y = Variable(x),Variable(y)
plt.scatter(x.data.numpy(),y.data.numpy())
#plt.show()
# 建立你自己的神经网络模型
class Net(torch.nn.Module):
def __init__(self,n_feature,n_hidden,n_output):
super(Net,self).__init__()
self.hidden = torch.nn.Linear(n_feature,n_hidden) # 隐藏层
self.predict = torch.nn.Linear(n_hidden,n_output) # 输出层
def forward(self, x):
x = F.relu(self.hidden(x))
x = self.predict(x) # 这里不经过激活函数是因为,我们通常不