一、分类问题
分类问题主要是注重对于输出值的理解,代码上比较容易,课上展示的代码如下:
#前面的操作跟实现线性回归基本上都一样,只用改数据集,函数和Loss方程即可
#1.prepare dataset
import torch
import torch.nn.functional as F
import numpy as np
import matplotlib.pyplot as plt
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])
#D2.esign model using Class
class LogisticRegressionModel(torch.nn.Module):
def __init__(self):
super(LogisticRegressionModel, self).__init__()## 父类
self.linear = torch.nn.Linear(1, 1)##构造一个对象,包含Weight(参数w) 和 Bias(参数b) ,之后就可以直接用Linear计算Wx+b
def forward(self, x):##这里主要考虑的override,覆盖父类的默认函数
y_pred = torch.sigmoid(self.linear(x))#这里不能用F.sigmoid,要改成torch.sigmoid,应该是版本问题
return y_pred
model = LogisticRegressionModel()
#3.Loss和optimizer
criterion = torch.nn.BCELoss(size_average=False)#用MSE来做(就是之前一直用的loss算法),且不用求平均,因为每一个minibatch的大小都是一样得
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)#用优化器SGD来做,且学习率是确定的0.01
#4.Training cycle
for epoch in range(100):
y_pred = model(x_data)
loss = criterion(y_pred, y_data)
print(epoch,loss.item())
optimizer.zero_grad()
loss.backward()
optimizer.step()
#画出用这个模型预测的每一个时间下,学生可能通过这门课的概率
x = np.linspace(0,10,200)#x取0到10中间的200个点
x_t = torch.Tensor(x).view((200,1))#x形成200行1列的张量
y_t = model(x_t)
y = y_t.data.numpy()
plt.plot(x,y)
plt.plot([0,10],[0.5,0.5],c='r')
plt.xlabel('Hours')
plt.ylabel('Probability of Pass')
plt.grid()
plt.show()
二、多维输入问题
多维输入问题一定要理解神经网络降维的意义和方法,本质上是期待以这样的方式来寻找从高维降到一维的非线性变换拟合
代码部分有几个点一定要注意!走了很多弯路,花费了很多时间:
1.diabete