MLPclassifier,MLP 多层感知器的的缩写(Multi-layer Perceptron)

 

先看代码(sklearn的示例代码):

[python] view plain copy
  1. from sklearn.neural_network import MLPClassifier  
  2.     X = [[0., 0.], [1., 1.]]  
  3.     y = [0, 1]  
  4.   
  5.     clf = MLPClassifier(solver='lbfgs', alpha=1e-5,  
  6.                     hidden_layer_sizes=(5, 2), random_state=1)  
  7.   
  8.     clf.fit(X, y)  
  9.     print 'predict\t',clf.predict([[2., 2.], [-1., -2.]])  
  10.     print 'predict\t',clf.predict_proba([[2., 2.], [1., 2.]])  
  11.     print 'clf.coefs_ contains the weight matrices that constitute the model parameters:\t',[coef.shape for coef in clf.coefs_]  
  12.     print clf  
  13.     c=0  
  14.     for i in clf.coefs_:  
  15.         c+=1  
  16.         print c,len(i),i  

说明:

   MLPclassifier,MLP 多层感知器的的缩写(Multi-layer Perceptron)

   fit(X,y) 与正常特征的输入输出相同


solver='lbfgs',  MLP的求解方法:L-BFGS 在小数据上表现较好,Adam 较为鲁棒,SGD在参数调整较优时会有最佳表现(分类效果与迭代次数);
         SGD标识随机梯度下降。疑问:SGD与反向传播算法的关系
alpha:L2的参数:MLP是可以支持正则化的,默认为L2,具体参数需要调整
hidden_layer_sizes=(5, 2) hidden层2层,第一层5个神经元,第二层2个神经元)
      
计算的时间复杂度(非常高。。。。):
Suppose there are n training samples, m features, k hidden layers, each containing h neurons - for simplicity, and o output neurons. The time complexity of backpropagation is O(n\cdot m \cdot h^k \cdot o \cdot i), where i is the number of iterations. Since backpropagation has a high time complexity, it is advisable to start with smaller number of hidden neurons and few hidden layers for training.
 涉及到的设置:隐藏层数量k,每层神经元数量h,迭代次数i。

转载于:https://www.cnblogs.com/bonelee/p/7880867.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值