机器学习实验||分类机器学习建模分析

  • 实验目的
  1. 掌握机器学习建模分析
  2. 掌握回归分析、分类分析、聚类分析、降维等
  3. 了解各分类器之间的差异
  • 实验环境

  操作系统:作系统:Windows 11

  应用软件:Jupyter Notebook

  • 实验内容与结果

(题目、源程序、运行结果)

一个分类器只能使用一列lable

  1. 使用scikit-learn建立决策树为葡萄酒数据集构造分类器(分类结果为’good’或‘not’ ) 

[“不可使用quantity”列]

2.使用scikit-learn建立SVM模型预测葡萄酒质量(1-10之间)[“不可使用good_or_not”列]

3.(选作)评估以上两种分类器在此数据集上的分类性能

使用SVM多分类的时候需要用到Kappa系数

* 需要划分训练集和测试集

  • 实验总结

分类问题是对事物所属类型的判别,类型的数量是已知的。

分类算法通过数据集自动学习分类模型(也称分类器),在分类学习(也称训练)过程中,采用不同的学习算法可以得到不同的分类器,常用的分类算法有很多,如决策树(Decision Tree)、贝叶斯分类、KNN (K近邻)、支持向量机(Support Vector Machine,SVM)、神经网络(Neural Network)和集成学习(EnsembleLearning)等。本次实验为决策树和SVM两种学习算法。

scikit-learn的Decision Tree Classifier 类实现决策树分类器学习,支持二分类和多分类问题。分类性能评估同样采用metrics类实现。

支持向量机 (SVM)的基本思想是将数据看作多维空间的点,求解一个最优的超平面,将两种不同类别的点分割开来。SVM采用核函数(Kernel Function)将低维数据映射到高维空间,选用适当的核函数,就能得到高维空间的分割平面,较好地将数据集划分为两部分。常用的核函数有线性核、多项式核、高斯核和 sigmoid核等。核函数的选择是影响SVM分类性能的关键因素,若核函数选择不合适,则意味着将样本映射到不合适的高维空间,无法找到分割平面。当然,即使采用核函数,也不是所有数据集都可以被完全分割的,因此SVM 的算法中添加了限制条件,来保证尽可能减少不可分点的影响,使划分达到相对最优。

  • 7
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小嘤嘤怪学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值