【Python机器学习】线性模型——用于多分类的线性模型

很多线性分类模型只使用与二分类问题,将二分类算法推广到多分类算法的一种常见方法是“一对其余”方法。在“一对其余”方法中,对每个类别都学习一个二分类模型,将这个类别和其他类别尽量区分,这样就生成了与类别数相同的二分类模型数。在测试点上运行所有分类器进行预测,在对应类别上分数最高的分类器“胜出”,将这个类别标签范围作为预测结果。

多分类Logistics回归背后的数学与“一对其余”方法稍有不同,但也是对每个类别都有一个系数向量和一个截距,也使用了同样的预测方法。

以一个三分类的二维数据集为例:

from sklearn.datasets import make_blobs
import matplotlib.pyplot as plt
import mglearn
from sklearn.svm import LinearSVC
import numpy as np


plt.rcParams['font.sans-serif']=['SimHei']
X,y=make_blobs(random_state=42)
mglearn.discrete_scatter(X[:,0],X[:,1],y)
plt.ylim(-10,15)
plt.xlim(-10,10)
plt.xlabel('0')
plt.ylabel('1')
plt.legend(['类别0','类别1','类别2'],loc=(1.01,0.3))

plt.show()

在这个数据集上训练LinearSVC分类器:

line_svc=LinearSVC().fit(X,y)
print('coef_形状:{}'.format(line_svc.coef_.shape))
print('intercept_形状:{}'.format(line_svc.intercept_.shape))

 

可以看到coef_的形状是(3,2),说明coef_每行包括三个分类之一的系数向量,每列包含某个特征对应的系数值。

对3个二类分类器给出可视化:

 训练集中所有属于类别0的点都在与类别0对应的直线上方,说明他们位于这个二类分类器属于类别0的那一侧。没有直接和某类点在同一个区域的点,属于“其余”部分。“其余”部分,属于分类方程结果最大的那个类别,即最近的的那条线对应的类别:

 

  • 10
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值