1.画图
和第五课的画图代码一致,此处不多讲
import torch
import torch.nn.functional as F
import matplotlib.pyplot as plt
#method 1
n_data=torch.ones(100,2)
x0=torch.normal(n_data*2,1)
y0=torch.zeros(100)
x1 = torch.normal(-2*n_data, 1) # 类型1 x data (tensor), shape=(100, 2)
y1 = torch.ones(100) # 类型1 y data (tensor), shape=(100, 1)
# 注意 x, y 数据的数据形式是一定要像下面一样 (torch.cat 是在合并数据)
x = torch.cat((x0, x1), 0).type(torch.FloatTensor) # FloatTensor = 32-bit floating Tensor[200,2]
y = torch.cat((y0, y1), ).type(torch.LongTensor) # LongTensor = 64-bit integer Tensor[200]
#
plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=y.data.numpy())
plt.show()
2.first method
和第五课的类构造代码一致,此处不多讲
class Net(torch.nn.Module): # 继承 torch 的 Module
def __init__(self, n_feature, n_hidden, n_output):
super(Net, self).__init__() # 继承 __init__ 功能
self.hidden = torch.nn.Linear(n_feature, n_hidden) # 隐藏层线性输出
self.out = torch.nn.Linear(n_hidden, n_output) # 输出层线性输出
def forward(self, x):
# 正向传播输入值, 神经网络分析出输出值
x = F.relu(self.hidden(x)) # 激励函数(隐藏层的线性值)
x = self.out(x) # 输出值, 但是这个不是预测值, 预测值还需要再另外计算
return x
net = Net(n_feature=2, n_hidden=10, n_output=2) # 几个类别就几个 output
#
print(net) # net 的结构
3.second method
net2=torch.nn.Sequential(
torch.nn.Linear(1,10),
torch.nn.ReLU(),
torch.nn.Linear(10,1)
)
print(net2)
和Kares的Sequential有点类似,里面有参数还用nn比较好
————————————————————————————————————————————————我是一名机器学习的初学者,是万千小白中努力学习中的一员