机器学习之分类器的不确定度估计——基于Scikit-Learn

《Python机器学习基础教程》笔记

Scikit-Learn接口的一个有用之处就是分类器能够给出预测的不准确定估计,即分类器预测某个测试点属于某个类别的置信程度。

Scikit-Learn中有两个函数可以用于获取分类器的不确定度估计:decision_function和predict_proba。大多数分类器都至少有其中一个函数。下面对这两个函数进行简单的介绍:

1.decision_function(决策函数)

①对于二分类的情况,decision_function(决策函数)返回值的形状是(n_samples,),注意这是一个一维数组,它为每个样本都返回一个浮点数,正值表示对“正类”(classes_属性的第二个元素)的置信程度,负值表示对“负类”(classes_属性的第一个元素)的置信程度,绝对值越大表示置信度越高。对于多分类情况,decision_function(决策函数)返回值的形状是(n_samples,n_classes),每一列对应每个类别的“确定性分数”,分数较高的类别可能性更大。

②decision_function(决策函数)的输出可以在任意范围取值

2.predict_proba(预测概率)

①predict_proba(预测概率)的输出是每个类别的概率总是在0~1之间,两个类别的元素之和始终为1,因此比decision_function的输出更容易理解。

②predict_proba(预测概率)不管二分类还是多分类,返回值的形状均为(n_samples,n_classes)

将这两个函数应用于鸢尾花数据集为例演示如何使用Scikit-Learn:

from sklearn.datasets import load_iris
from sklearn.ensemble import GradientBoostingClassifier
iris = load_iris() #加载数据集
X_train,X_test,y_train,y_test = train_test_split(iris.data,iris.target,random_state=42) #分割训练集和测试集
gbrt = GradientBoostingClassifier(learning_rate=0.01,random_state=0) #实例化梯度提升回归树
gbrt.fit(X_train,y_train) #训练模型
print("Decision function shape:\n{}".format(gbrt.decision_function(X_test).shape))
print("Decision function :\n{}".format(gbrt.decision_function(X_test)[:6])) #显示决策函数的前6个元素
print("Predicted probabilities :\n{}".format(gbrt.predict_proba(X_test)[:6])) #显示预测概率的前6个元素

运行结果如下:

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值