sklearn.nueral_network.MLPClassifier(hidden_layer_sizes=(100,),activation='relu',solver='adam',
alpha=0.0001,batch_size='auto',learning_rate='constant',learning_rate_init=0.001,power_t=0.5,
max_iter=200,shuffle=True,random_state=None,tol=0.0001,verbose=False,warm_start=False,momentum=0.9,
nesterovs_momentum=True,early_stopping=False,validation_fraction=0.1,beta_1=0.9,beta_2=0.999,epsilon=1e-8)
训练一个多层感知机模型,使用LBFGS或者随机梯度下降优化对数损失函数
hidder_layer_sizes:元组,length=n_layers-2,默认为(100,)
第i个数代表第i层隐藏层的神经元个数
alpha=0.0001,batch_size='auto',learning_rate='constant',learning_rate_init=0.001,power_t=0.5,
max_iter=200,shuffle=True,random_state=None,tol=0.0001,verbose=False,warm_start=False,momentum=0.9,
nesterovs_momentum=True,early_stopping=False,validation_fraction=0.1,beta_1=0.9,beta_2=0.999,epsilon=1e-8)
训练一个多层感知机模型,使用LBFGS或者随机梯度下降优化对数损失函数
hidder_layer_sizes:元组,length=n_layers-2,默认为(100,)
第i个数代表第i层隐藏层的神经元个数
activation:{'identity','logistic','tanh','relu'},默认为relu
隐藏层的激活函数
identity:f(x)=x
logistic:f(x)=1/(1+exp(-x))
tanh:f(x)=tanh(x)
relu:f(x)=max(0,x)
隐藏层的激活函数
identity:f(x)=x
logistic:f(x)=1/(1+exp(-x))
tanh:f(x)=tanh(x)
relu:f(x)=max(0,x)
slover:{'lbfgs','sgd