Matlab自带的分类学习工具箱(SVM、决策树、Knn等分类器)

在matlab中,既有各种分类器的训练函数,比如“fitcsvm”,也有图形界面的分类学习工具箱,里面包含SVM、决策树、Knn等各类分类器,使用非常方便。接下来讲讲如何使用。

启动:

点击“应用程序”,在面板中找到“Classification Learner”图标点击即启动,也可以在命令行输入“classificationlearner”,回车,也可启动。如下图:

这里写图片描述

导入数据:

点击“New Session”,可以从工作空间或文件中导入数据。选择数据后,导入分为三步:

这里写图片描述

第一步,确定你的数据格式,这里导入的数据是一个矩阵,既有样本输入也有对应的输出。比如,我导入的数据data是3*3000的矩阵,3000个样本,每个样本两个特征值,第三行是每个样本对应的输出。这时我应该选择“Use row as variables”,如果数据格式为3000*3,则选择“Use column as variables”。 
第二步,指定哪一行为“response”即输出响应,在本数据中,第三行为输出,其余为“predictor”。 
第三步,是否需要验证,一般都选择交叉验证“Cross Validation”,folds表示几次,自己选择即可。 
这里写图片描述

确定后,点击“start session”。

选择分类器:

如下图,原始数据的散点图会显示出来,由于这数据只有两维,因此可以全部显示在二维坐标中。如果你的数据多于两维,二维坐标系不能完全显示每一维,你可以在右边红圈的X、Y下拉条中选择显示哪两维。

这里写图片描述

训练前可以选择训练的模型,点击红圈中的下拉箭头,可以看到各类训练模型,选择一个即可,也可以选择某一类的“ALL”,该类所有模型都会训练一遍。 
选好模型后,点击“train”,开始训练。

训练结果:

训练结果显示在左边,每个模型训练后的准确率都会显示出来,最高准确率会被标注,下面即为模型的信息。

这里写图片描述

点击“Advance”可以设置模型的具体参数。点击“Confusion Matrix”可以查看混淆矩阵等。

点击“Export Model”可以将模型导出到工作空间,这样就可以利用模型来测试新的数据。也可以导出为代码,方便研究。

  • 20
    点赞
  • 101
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
好的,下面我将为您介绍如何采用KNNSVM决策树算法以及集成学习方法来实现鸢尾花数据集分类。 1. 数据集准备 首先,我们需要下载并准备鸢尾花数据集。这个数据集包含了150个鸢尾花样本,分为三个不同的品种:山鸢尾、变色鸢尾和维吉尼亚鸢尾。每个样本包含4个特征:花萼长度、花萼宽度、花瓣长度和花瓣宽度。 我们可以使用Python的scikit-learn库来加载数据集: ```python from sklearn import datasets iris = datasets.load_iris() X = iris.data y = iris.target ``` 接下来,我们将数据集分为训练集和测试集: ```python from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) ``` 2. KNN算法 KNN算法是一种基于实例的学习算法,它根据与新实例最相似的k个邻居的类别来预测新实例的类别。在scikit-learn库中,KNN算法的实现可以通过KNeighborsClassifier类来实现: ```python from sklearn.neighbors import KNeighborsClassifier knn = KNeighborsClassifier(n_neighbors=5) knn.fit(X_train, y_train) y_pred_knn = knn.predict(X_test) ``` 在上述代码中,我们使用KNeighborsClassifier类来创建一个KNN分类器,其中n_neighbors参数指定了k的值。然后,我们使用fit()方法来训练分类器,并用predict()方法来预测测试集的类别。 3. SVM算法 SVM算法是一种有监督的学习算法,它可以将数据集分为两个类别,并找到一个最优超平面,使得在超平面两侧的样本点距离超平面最近的点到超平面的距离最大化。在scikit-learn库中,SVM算法的实现可以通过SVC类来实现: ```python from sklearn.svm import SVC svm = SVC(kernel='linear') svm.fit(X_train, y_train) y_pred_svm = svm.predict(X_test) ``` 在上述代码中,我们使用SVC类来创建一个SVM分类器,并指定kernel参数为'linear',表示使用线性核函数。然后,我们使用fit()方法来训练分类器,并用predict()方法来预测测试集的类别。 4. 决策树算法 决策树算法是一种有监督的学习算法,它通过递归地将数据集分成更小的子集,直到所有的子集都属于同一个类别。在scikit-learn库中,决策树算法的实现可以通过DecisionTreeClassifier类来实现: ```python from sklearn.tree import DecisionTreeClassifier dt = DecisionTreeClassifier() dt.fit(X_train, y_train) y_pred_dt = dt.predict(X_test) ``` 在上述代码中,我们使用DecisionTreeClassifier类来创建一个决策树分类器。然后,我们使用fit()方法来训练分类器,并用predict()方法来预测测试集的类别。 5. 集成学习方法 集成学习方法是一种将多个分类器组合起来来提高分类准确率的技术。在本例中,我们可以使用投票法来实现集成学习。具体来说,我们将KNNSVM决策树三个分类器的预测结果进行投票,并选择得票数最多的类别作为最终预测结果。 在scikit-learn库中,可以使用VotingClassifier类来实现投票法: ```python from sklearn.ensemble import VotingClassifier estimators = [('knn', knn), ('svm', svm), ('dt', dt)] voting = VotingClassifier(estimators) voting.fit(X_train, y_train) y_pred_voting = voting.predict(X_test) ``` 在上述代码中,我们使用VotingClassifier类来创建一个投票分类器,其中estimators参数是一个包含了KNNSVM决策树三个分类器的列表。然后,我们使用fit()方法来训练分类器,并用predict()方法来预测测试集的类别。 6. 模型评估 最后,我们可以使用准确率、精确率、召回率和F1-score等指标来评估模型的性能: ```python from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score print('KNN accuracy:', accuracy_score(y_test, y_pred_knn)) print('SVM accuracy:', accuracy_score(y_test, y_pred_svm)) print('Decision Tree accuracy:', accuracy_score(y_test, y_pred_dt)) print('Voting accuracy:', accuracy_score(y_test, y_pred_voting)) ``` 在上述代码中,我们使用scikit-learn库中的metrics模块来计算准确率、精确率、召回率和F1-score等指标。最后,我们输出了KNNSVM决策树和投票四个模型的准确率。 综上所述,我们可以采用KNNSVM决策树三个算法和集成学习方法来实现鸢尾花数据集分类,并通过模型评估来选择最优模型。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值