第1关:网络层
import torch.nn as nn
myNet = nn.Sequential(
########## Begin ##########
nn.Linear(3, 100),
nn.Linear(100, 1000),
nn.Linear(1000, 100),
nn.Linear(100, 10)
)
########## End ##########
print(myNet)
第2关:激活函数
import torch
from torch.autograd import Variable
import torch.nn.functional as F
x = torch.linspace(-5, 5, 200) # 构造一段连续的数据
x = Variable(x)
########## Begin ##########
# 使用sigmoid激活函数
y_sigmoid = torch.sigmoid(x)
print("y_sigmoid:")
print(y_sigmoid)
# 使用tanh激活函数
y_tanh = torch.tanh(x)
print("y_tanh:")
print(y_tanh)
# 使用ReLU激活函数
y_relu = torch.relu(x)
print("y_relu:")
print(y_relu)
# 使用softplus激活函数
y_softplus = F.softplus(x)
print("y_softplus:")
print(y_softplus)
# 使用leakyReLU激活函数
y_leakyrelu = F.leaky_relu(x)
print("y_leakyrelu:")
print(y_leakyrelu)
# 使用ELU激活函数
y_ELU = F.elu(x)
print("y_ELU:")
print(y_ELU)
# 使用SELU激活函数
y_SELU = F.selu(x)
print("y_SELU:")
print(y_SELU)
########## End ##########
第3关:模型优化