sigmoid functions:
tanh(x)在lstm里经常使用。
上图中最常用的就是逻辑斯蒂回归函数:
逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某种事物的可能性。
import torch
x_data=torch.Tensor([[1.0],[2.0],[3.0]])
y_data=torch.Tensor([[0],[0],[1]])
class LogisticRegressionModel(torch.nn.Module):
def __init__(self):
super(LogisticRegressionModel,self).__init__()
self.linear=torch.nn.Linear(1,1)
def forward(self,x):
y_pred=torch.sigmoid(self.linear(x))
return y_pred
model=LogisticRegressionModel()
criterion=torch.nn.BCELoss(size_average=False)
optimizer=torch.optim.SGD(model.parameters(),lr=0.01)
for epoch in range(1000):
y_pred=model(x_data)
loss=criterion(y_pred,y_data)
print(epoch,loss.item())
optimizer.zero_grad()
loss.backward()
optimizer.step()
运行结果:
收敛的比较慢,可以调整学习率试试。
我们把图形可视化一下:
import numpy as np
import matplotlib.pyplot as plt
x=np.linspace(0,10,200) #0-10均分成200份,生成的是一维的数组
x_t=torch.Tensor(x).view((200,1))
#view就是规定数组的形状的,第一维是200,第二维是1,200在这里就表示batch了
y_t=model(x_t)
y=y_t.data.numpy()#numpy把这200个数都拿出来变成一维的了
plt.plot(x,y)#函数曲线
plt.plot([1,10],[0.5,0.5],c='r')
#(1,0.5)和(10,0.5)两点连线,颜色是红色
plt.xlabel('Hours')
plt.ylabel('Probability of Pass')
plt.grid()#生成像是表格一样的线
plt.show()