神经网络原理
在这里主要介绍的是MLP算法。在MLP模型中,算法在过程中添加了Hidden Layers,然后在其中进行加权求和计算,最后再把其所计算的结果作为最终的计算结果。然而如果仅仅是简单的加权求和,其模型表现和线性模型的表示不会有很大的不同,所以在生成hidden layers后,还需要对结果进行relu或tanh即是非线性矫正和双曲正切处理。
下面来介绍一下MLP模型的一些参数。
MLPClassifier(activation=‘relu’, alpha=0.0001, batch_size=‘auto’, beta_1=0.9,
beta_2=0.999, early_stopping=False, epsilon=1e-08,
hidden_layer_sizes=(100,), learning_rate=‘constant’,
learning_rate_init=0.001, max_iter=200, momentum=0.9,
n_iter_no_change=10, nesterovs_momentum=True, power_t=0.5,
random_state=None, shuffle=True, solver=‘adam’, tol=0.0001,
validation_fraction=0.1, verbose=False, warm_start=False)
其中主要的一些参数是activation,alpha,hidden_layer_sizes,solver等。
activation: