分类算法比较

相同的数据集用不同的模型进行训练最后可视化,观察分类的结果

读取数据
data = pd.read_csv(‘G:\Machine Learning\data\Social_Network_Ads.csv’)
在这里插入图片描述
以Age.EstimatedSalary两列作为x,以Purchased作为y

x = data.loc[:,'Age':'EstimatedSalary'].values
y = data.loc[:,'Purchased'].values

划分数据集

from sklearn.model_selection import train_test_split
x_train ,x_test, y_train, y_test = train_test_split(x, y, test_size = 0.2, random_state = 1)

归一化

from sklearn.preprocessing import StandardScaler
sc_x = StandardScaler()
sc_y = StandardScaler()
x_train_std = sc_x.fit_transform(x_train)
x_test_std = sc_x.transform(x_test)
  1. 逻辑回归
    将离散数据变为连续数据拟合出分界线
from sklearn.linear_model import LogisticRegression as LR
lr = LR() #建立逻辑回归模型
lr.fit(x_train_std, y_train) #训练模型

在这里插入图片描述

支持向量机

用核函数对原数据进行升维,在高纬度中找到分界的面,再降为低纬度中的分界线

# 用核函数进行升维
from sklearn.svm import SVR
rbf_regressor = SVR(kernel = 'rbf')
rbf_regressor.fit(x_train_std,y_train)

在这里插入图片描述

KNN

1)计算测试数据与各个训练数据之间的距离;
2)按照距离的递增关系进行排序;
3)选取距离最小的K个点;
4)确定前K个点所在类别的出现频率;
5)返回前K个点中出现频率最高的类别作为测试数据的预测分类。

from sklearn.neighbors import KNeighborsClassifier
classifier = KNeighborsClassifier(n_neighbors = 5, metric = 'minkowski', p = 2)
classifier.fit(x_train_std, y_train)

在这里插入图片描述

简单贝叶斯

from sklearn.naive_bayes import GaussianNB
classifier = GaussianNB()
classifier.fit(x_train_std,y_train)

在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值