sklearn.svm.LinearSVC

sklearn.svm.LinearSVC

1、api

class sklearn.svm.LinearSVC(penalty=’l2’, loss=’squared_hinge’, dual=True, tol=0.0001, C=1.0, multi_class=’ovr’, fit_intercept=True, intercept_scaling=1, class_weight=None, verbose=0, random_state=None, max_iter=1000)

类似于使用线性kernel的SVM,但是因为本身不拥有kernel,所以又不一样

2、参数的意义和返回值

参数:

penalty"l1"/"l2",在svc中默认为“l2"
loss"hinge"/"squared_hinge",
dual布尔型变量,在样本数》特征数的时候,建议选择false
tol误差的tolerance,给定迭代次数,最后几次的差值大于这个值,会给出警告(没有收敛)
csvm的参数,参见svm的理论公式
multi_class多分类问题,‘ovr’ / ‘crammer_singer’,ovr是基于”one_over_all“的思想,(选出一个类,吧其他的类看做一个类来进行对待。)
fit_intercept是否计算该模型的结局,建议选择True,可能以后要用到这个参数,
intercept_scaling默认为1
class_weight

把类别i的系数C,设置为calss_weight[i]*C,

是字典型变量

verbose启用详细输出(我一般没用过)
random_state随机数状态(我也没用过)
max_iter最大的迭代次数,默认为1000

返回值:

coef_

各个特征之前的系数

shape = [n_features] if n_classes == 2

else [n_classes, n_features]

intercept_

截距

shape = [1] if n_classes == 2 else [n_classes]

3、方法

4、应用:

用一个两个特征的x,进行实例说明:

1、进行训练

svm1 = sklearn.svm.LinearSVC(C=1.0,loss='squared_hinge')
svm1.fit(X,Y.ravel())
svm1.score(X,Y) #返回的是最后的平均“得分”,反映了预测的好与坏

2、获得参数

p1,p2 = svm1.coef_[0]#个参数的权重系数
b = svm1.intercept_[0] #截距值
print(p1,p2,b)

其中计算得公式为:p1 * x1 + p2 * x2 + b = 0

3、画图

plt.scatter(X1,X2,c = Y)

plt.plot(X1,-p1/p2*X1 - b/p2)

plt.show()

这是c = 1的情况,给数据的误差权重比较小(c = 1),所以那个偏离数据的点没有很好的拟合

我么给c一个比较打的值,来增加数据的误差权重,试一下c = 100,结果如下,该分类就吧所有的数据点都进行了分离

该项目可以在我的github下载,点这里

 

 

 

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值