一.neural_network
1.简介:
该模块实现了基于神经网络的模型
2.使用:
"伯努利限制玻尔兹曼机"(Bernoulli Restricted Boltzmann Machine;RBM):class sklearn.neural_network.BernoulliRBM([n_components=256,learning_rate=0.1,batch_size=10,n_iter=10,verbose=0,random_state=None])
#参数说明:
n_components:指定"二值化隐藏单位"(binary hidden units)的数量;为int
learning_rate:指定"学习率"(learning rate);为float
#建议对该参数进行调优,合理值通常在10**[0,-3]内
batch_size:指定"批"(batch)中的样本数量;为int
n_iter:指定迭代次数;为int
verbose:指定"冗长级别"(verbosity level);为int,0表示静默模式
random_state:指定使用的随机数;为int/RandomState instance/None
######################################################################################################################
"多层感知机分类器"(Multi-layer Perceptron classifier):class sklearn.neural_network.MLPClassifier([hidden_layer_sizes=100,activation='relu',solver='adam',alpha=0.0001,batch_size='auto',learning_rate='constant',learning_rate_init=0.001,power_t=0.5,max_iter=200,shuffle=True,random_state=None,tol=0.0001,verbose=False,warm_start=False,momentum=0.9,nesterovs_momentum=True,early_stopping=False,validation_fraction=0.1,beta_1=0.9,beta_2=0.999,epsilon=1e-08,n_iter_no_change=10,max_fun=15000])
#参数说明:
hidden_layer_size:指定各隐藏层中神经元的数量;为1×(n_layers-2) tuple
activation:指定隐藏层的激活函数;为"identity"/"logistic"/"tanh"/"relu"
solver:指定权重优化的求解器;为"lbfgs"/"sgd"/"adam"
alpha:指定L2惩罚项的参数;为float
batch_size:指定"批"(batch)中的样本数量;为int/"auto&#