官网参数
sklearn.neural_network.MLPClassifier
参数认知
参数 | 参数作用 | 参数接收值 | 默认 |
---|---|---|---|
hidden_layer_sizes | 隐藏层中的神经元数量 | int | 100 |
activation | 隐藏层的激活函数 | ’identity’: 无操作激活,用于实现线性瓶颈,返回f(x)= x**‘logistic’😗* logistic Sigmoid函数,返回f(x)= 1 / (1 + exp(x))。‘tanh’: 双曲tan函数,返回f(x)= tanh(x)。 ’relu’: 整流线性单位函数,返回f(x)= max(0,x) | ’relu’ |
solver | 权重优化的求解器 | “ lbfgs”: 是quasi-Newton方法族的优化程序。 “ sgd”: 是指随机梯度下降。 “ adam”: 是指Kingma,Diederik和Jimmy Ba提出的基于随机梯度的优化器 | ’adam’ |
alpha | 惩罚 | int | 0.0001 |
batch_size | 随机优化器的小批次的大小 | “ lbfgs”: 不使用小批次批处理 “auto“: batch_size=min(200, n_samples) | ’auto’ |
learning_rate | 权重更新的学习速率表 | 仅在solver='sgd' 时使用。’ constant ': 是一个恒定的学习速率,由’ learning_rate_init '给出。 “invscaling”: 通过使用“power_t”的缩放逆指数,逐步降低在每个时间步长“t”上的学习率。 | ‘constant’ |
learning_rate_init | 使用的初始学习率,控制更新权重的步长 | double | 0.001 |