测试多层神经网络针对不同数据集的训练效果


对应代码已同步上传资源内,如所需请自行下载。

一、实验要求

在计算机上验证和测试多层神经网络针对不同数据集的训练效果,同时查阅相关资料。

二、实验目的

1、掌握sklearn开发环境
2、掌握sklearn.neural_network 下的神经网络分类器 MLPClassifier;
3、掌握sklearn.linear_model 下的感知机分类器Perceptron;

三、实验内容

实验步骤
1.请针对如下四种数据集,对比2层隐藏层下不同神经元个数(2,2),(5,5),(10,10)以及4层神经网络(2,2,2,2),(5,5,5,5),(10,10,10,10),对比分类效果,以及每个模型的迭代次数和训练时间,然后给出分析结论。

在这里插入图片描述

(10,10),Wall time: 435 ms(迭代时间为图一,下同)#输出最大迭代次数:194
在这里插入图片描述

(5,5),Wall time1: 580 ms,#输出最大迭代次数:301
在这里插入图片描述

(5,5,5,5),Wall time1: 468ms,#输出最大迭代次数:137
在这里插入图片描述

(10,10,10,10),Wall time1: 476ms,#输出最大迭代次数:163
在这里插入图片描述

结论:同一隐藏层下,增加神经元个数,能够增加拟合程度,增加隐藏层数,能够减少迭代次数,拟合程度增加

上课讲解:在一定程度上,神经元层数与个数越多越好。神经元个数越多算法识别的范围越大,神经元的层数对应算法识别的深度。

2. 针对不同噪声下的太极数据集,对比2层隐藏层下不同神经元个数(2,2),(5,5),(10,10)以及4层神经元(2,2,2,2),(5,5,5,5),(10,10,10,10),对比分类效果,以及每个模型的迭代次数和训练时间,然后给出分析结论。
在这里插入图片描述

(10,10,10,10),Wall time1: 542ms,#输出最大迭代次数:189
在这里插入图片描述

(5,5,5,5),Wall time1: 900ms,#输出最大迭代次数:326
在这里插入图片描述

(10,10),Wall time1: 763ms,#输出最大迭代次数:356
在这里插入图片描述

(5,5),Wall time1: 696ms,#输出最大迭代次数:392
在这里插入图片描述

结论:隐藏层数增加,神经元数增加,拟合程度越大。隐藏层数增加,迭代次数减少,噪声增大,迭代次数减少。

上课讲解:从图中看不出具体规律,这几种神经元都可以处理这种简单分类

四、实验总结

本次实验重在观察,但由于实验数据量小,结论可能存在偏差。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Desire..

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值