1.画出散点图
import torch
import torch.nn.functional as F
import matplotlib.pyplot as plt
n_data=torch.ones(100,2) #类似于np.ones()
x0=torch.normal(n_data*2,1)
y0=torch.zeros(100)
x1 = torch.normal(-2*n_data, 1) # 类型1 x data (tensor), shape=(100, 2)
y1 = torch.ones(100) # 类型1 y data (tensor), shape=(100, 1)
x = torch.cat((x0, x1), 0).type(torch.FloatTensor) # FloatTensor是32-bit floating Tensor[200,2]
y = torch.cat((y0, y1), ).type(torch.LongTensor) # LongTensor是64-bit integer Tensor[200]
plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=y.data.numpy())
plt.show()
说一下torch.cat()的用法,了解numpy和pandas的同学应该清楚,torch((a,b),dim=),如果dim=0,就是竖着拼起来(必须保持a,b的列一致,类似于np.r_),如果dim=1,就是横着拼起来(必须保持a,b的行一致,类似于np.c_)。
还要说一点就是x要是FloatTensor,y要是LongTensor,莫烦在视频中多次提到
2.类和loss
class Net(torch.nn.Module): # 继承 torch 的 Module
def __init__(self, n_feature, n_hidden, n_output):
super(Net, self).__init__() # 继承 __init__ 功能
self.hidden = torch.nn.Linear(n_feature, n_hidden) # 隐藏层线性输出
self.out = torch.nn.Linear(n_hidden, n_output) # 输出层线性输出
def forward(self, x):
# 正向传播输入值, 神经网络分析出输出值
x = F.relu(self.hidden(x)) # 激励函数(隐藏层的线性值)
x = self.out(x) # 输出值, 但是这个不是预测值, 预测值还需要再另外计算
return x
net = Net(n_feature=2, n_hidden=10, n_output=2) # 几个类别就几个 output
#
# print(net) # net 的结构
optimizer=torch.optim.SGD(net.parameters(),lr=0.02)
loss_func=torch.nn.CrossEntropyLoss() #交叉熵
plt.ion()
plt.show()
for t in range(1000):
out=net(x)
loss=loss_func(out,y)
optimizer.zero_grad()
loss.backward()
optimizer.step()
if t%2==0:
plt.cla()
prediction = torch.max(out, 1)[1]
#[0]是返回最大的数,【1】是返回最大的索引
pred_y = prediction.data.numpy()
target_y = y.data.numpy()
plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, s=100, lw=0, cmap='RdYlGn')
accuracy = float((pred_y == target_y).astype(int).sum()) / float(target_y.size)
plt.text(1.5, -4, 'Accuracy=%.2f' % accuracy, fontdict={'size': 20, 'color': 'red'})
plt.pause(0.1)
plt.ioff()
plt.show()
torch.max(a,1)是把a的每一个行最大值和索引,都输出来,[0]就是输出的tensor对的最大值,[1]是输出的tensor对的最大值的索引
1.和回归的区别的第一个地方就是采用的loss函数是loss_func=torch.nn.CrossEntropyLoss()
交叉熵,分类问题常用的这个loss计算方法。公式如下:
2.和回归的区别还有一个地方,就是out输出的值虽然是一个(200,2)的tensor形式,但不是prediction,他需要进行torch.max(out,1)[1]
才会变成预测值
————————————————————————————————————————————————我是一名机器学习的初学者,是万千小白中努力学习中的一员