[证明]在二类线性分类中,权重向量w与决策平面正交。

需要明白的概念

决策平面: 特征空间 R d R^d Rd 中所有满足 f ( x , w ) = 0 f(x, w) = 0 f(x,w)=0 的点组成一个分割超平面(hyperplane),称为决策边界(decision boundary)或决策平面(decision surface)。

二类线性分类: 决策边界将特征空间一分为二,划分成两个区域,每个区域对应一个类别。

证明

由上面的定义可知,二类线性分类的判别函数可以表示为:
f ( x ) = w T ∗ x + w 0 f(x)=w^T*x+w_0 f(x)=wTx+w0
因此决策平面为:
f ( x ) = w T ∗ x + w 0 = 0 f(x)=w^T*x+w_0=0 f(x)=wTx+w0=0
对于决策平面上的任意线段,其起点 x 1 x_1 x1 和终点 x 2 x_2 x2 都在该超平面上,即满足
w T ∗ x 1 + w 0 = w T ∗ x 2 + w 0 即 w T ∗ ( x 1 − x 2 ) = 0 w^T*x_1+w_0 = w^T*x_2+w_0 \\ 即w^T*(x_1-x_2) = 0 wTx1+w0=wTx2+w0wT(x1x2)=0
因此权重向量 w w w与决策平面正交。

  • 8
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
决策树算法与logistic回归算法是常用的分类算法,它们有一些相似之处,同时也存在一些不同之处。 首先,决策树算法和logistic回归算法都是监督学习的分类算法。它们的目标都是通过学习已有的标记数据集,来建立一个分类模型,从而对未知数据进行分类。 其次,决策树算法和logistic回归算法都可以处理离散和连续属性。决策树通过构建树结构将数据划分为不同的子集,使得每个子集内的数据具有相同的属性特征。而logistic回归算法则通过线性回归模型,将连续的输入特征与二分类的输出结果之间建立一个概率分布函数。 然而,决策树算法与logistic回归算法也存在一些不同之处。首先,决策树算法更适合处理包含多个类别的分类任务,而logistic回归算法更适合处理二分类问题。其次,决策树算法在处理离散属性时效果更好,而logistic回归算法在处理连续属性时表现更加稳定。此外,决策树算法可以直接输出规则,更易于理解和解释,而logistic回归算法的结果通常表示为权重系数。 与决策树算法相比,支持向量机(SVM)分类算法具有一些不同之处。SVM是一种非常强大的分类算法,它将数据映射到高维空间,通过寻找一个最优的超平面来划分不同类别。SVM通过最大化间隔来寻找最佳划分超平面,从而使得模型具有较好的泛化能力。 与决策树算法相比,SVM算法具有更好的鲁棒性和泛化能力,尤其适用于处理高维数据和样本相对较少的情况。然而,与决策树算法相比,SVM算法对于大规模的训练集需要较长的训练时间和较高的计算资源。 总的来说,决策树算法、logistic回归算法和支持向量分类算法都是常用的分类算法,它们各有优势和适用场景。在选择合适的算法时,需要根据具体的问题和数据特点进行选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值