SDU机器学习作业心得5

这篇博客记录了作者在山东大学《机器学习》课程中的实验,使用集成学习处理MNIST数据集。作者构建了多个模型,包括BP神经网络、knn和svm,并通过投票方式决定最终预测。实验中,作者面临数据格式转换的挑战,通过整理数据成功应用于不同的模型。尽管等待结果的过程较长,但集成学习的准确率表现令人满意,验证了其优势。作者通过本次实验回顾并巩固了之前的机器学习知识,表达了对未来的期待和对老师的祝福。
摘要由CSDN通过智能技术生成

山东大学《机器学习》实验报告

----集成学习处理MNIST数据集

软件16-6 李昊 201600301309

意!!
使用svm之前请先解压./dataforsvm.zip。
mnist.pkl.gz上次实验已经上传过了,这次不再上传,运行之前请把它放到当前目录下。

问题背景:

继上次实验用BP神经网络处理完MNIST数据集之后,我们这次的任务是用多个模型进行投票,组成一个集成学习模型来处理MNIST数据集。

问题分析:

本次实验我准备了如下几个模型:

带一层隐藏层的BP神经网络1(785,51,10,eta=0.8)

带一层隐藏层的BP神经网络2(785,31,10,eta=1)

knn

svm1(线性核)

svm2(sigmoid核)

最终取所有模型预测结果的众数作为投票结果。

问题解决:

处理MNIST数据集

虽然老师允许使用现有的库,但是不同的库对数据格式的要求不同。所以处理数据的格式成了一个大难题。bp神经网络的数据在上次实验中已经整理好了格式,knn稍微一变也能使用。在处理数据使其支持svm的格式上,我把训练集和测试集重新读取到两个文件中,并且在文件中整理好了格式。

with open('traindata','w') as fout:
	for i in range(len(images_train)):
		line=''+str(labels_onlynum[i])
		for j in range(784
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值