深度学习试验之 多层感知器

1、试验平台

MLP Structure:input layer: 28×28 ,hidden layer: 100 , output layer:10
Dataset :MNIST
Programming:MATLAB
Pre-processing of raw data:原始图像归一化、原始图像规格化,规格化的具体方式为: (原始图像-平均图像)/标准差图像,值得注意的是对于标准差图像像素小于MATLAB默认最小浮点数精度 eps的用eps代替。
Initialization:采用Glorot和Bengio等人提出的初始化方法,即在 [b,b] 随机取值,其中 b 满足:

b=46Hk+Hk+1

其中 HkHk+1 分别是权值所连接的前后层的神经元个数。
batch size:100

2、实验结果

表一:验证 数据预处理和模型初始化对MLP影响

epochsnormalizedinitializingtraining errortesting error
1NN4.50000.9020
10NN4.50000.9020
1YN1.59240.8234
10YN0.15110.1943
1NY0.07880.0812
10NY0.02960.0381
1YY0.06680.0832
10YY0.02430.0496

注:initializing为Y时指用Benjio等人发明的方法进行参数初始化,而N代表直接用Matlab的rand函数随机赋值。

表二:验证 BP过程中添加冲量项对MLP影响

epochsmomentumtraining errortesting error
50.00.03540.0574
100.00.02430.0496
150.00.01850.0475
200.00.01500.0455
50.50.02650.0509
100.50.01680.0439
150.50.01230.0445
200.50.009980.0429

注:以下试验中的MLP同试验一和试验二相比结构并无改变,但改变了隐层的激活函数的类型,同样情形下结果稍有偏差。

表三:验证无监督预训练对MLP影响
该试验将通过自动编码器(Autoencoder)预训练MLP隐层的参数,特别地通过Denoising Autoencoder改变小部分原始数据为0来训练了参数(类似dropout)。

AE epochsnoise rateSAE training errortraining errortesting error
10.00/0.44600.8293
10.054.61840.09120.1007
10.104.52820.08950.0971
10.154.79820.08830.0955
10.204.88880.09080.1005
10.306.07150.13370.1824
10.407.84290.09910.1047
10.509.89340.15290.2058
20.509.13330.09480.1002
30.508.73820.13230.1825
40.508.83140.08880.0946

注:网络训练过程中没有对原始数据作任何预处理措施,冲量为0.5, AE epoches是指自动编码器的训练时代数,MLP均为1 epoch。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值