Logistic Regression的决策超平面

深度学习中偏置(阈值)不参与正则化。这时候我就想到了逻辑回归和svm。
       svm和逻辑回归都是用来做分类的,而且就以机器学习的角度去讲(先不从统计学分析)他们都是在找一个决策超平面。但是一个超平面的表现方式多种多样,法向量的模长不同表现方式就不同。所以如果要找到最终决策超平面的一个形式,需要限定法向量的模长。在svm中将法向量的模长设定为了一个特殊的值——最小函数距离的绝对值。通过拉格朗日乘子法最终加入到拉格朗日函数里面。在逻辑回归中,如果想求得最终决策超平面的一个表达式也要设定法向量的模长为c。同样的通过拉格朗日乘子法可以把约束条件和目标函数合并起来。cost = lost+a(w*w-c*c),其中a大于等于零。具体推到可以去参考拉格朗日乘子法。这其实就是我们经常看到的代价函数的样子,上面cost和lost两个函数仅仅代表两个函数名。在统计学里面逻辑回归是假设样本符合伯努利分布的,伯努利分布的共轭先验分布是β分布,β分布中权值w是在底数位置,不像高斯分布一样在指数位置,即使通过负对数也无法推导出二次范数正则项a(w*w-c*c)的统计意义。也就是说逻辑回归的二次范数正则项无法从统计解释。但是话说回来,线性回归里面的二次范式正则项引入虽然在统计学上是先验分布的表现,可是在求唯一一条拟合曲线的本质上又存在一点小矛盾。比如ax+b=y作为拟合曲线,这时候就默认为ax+b-y=0这样一条形式固定的曲线,这时候的法向量a是受y前面的系数-1约束的,不能随便变化了,表现形式已经唯一了,那么从找唯一一个解的角度思考就没有必要再约束w的二次范式了。这样也就不会有二次范式正则项了。所以线性回归里面通过统计解释得通的东西在分类里面解释不通,求唯一决策面的思想解释通了分类问题(逻辑回归)却解释不通线性回归的二次范式正则项。
这是一个 Python 代码段,主要是定义了五个分类器:KNN Classifier、Logistic Regression Classifier、Random Forest Classifier、SVM Classifier 和 Naive Bayes。以下是对代码的解析: KNN Classifier 是 K 近邻算法的分类器,它的实现基于最近邻原则,根据最近的 k 个邻居进行分类。KNeighborsClassifier() 是 scikit-learn 库中实现 K 近邻算法的分类器,它可以设置不同的 k 值和距离度量方式。 Logistic Regression Classifier 是逻辑回归分类器,它是一种基于概率的分类方法,将输入特征和权重进行线性组合,然后通过 sigmoid 函数将结果映射到 0 到 1 之间的概率值,最终根据概率值进行分类。LogisticRegression() 是 scikit-learn 库中实现逻辑回归分类器的函数。 Random Forest Classifier 是随机森林分类器,它是一种基于决策树的集成学习方法,将多个决策树的结果进行投票或平均,得到最终的分类结果。RandomForestClassifier() 是 scikit-learn 库中实现随机森林分类器的函数,它可以设置决策树的数量、深度和特征采样等参数。 SVM Classifier 是支持向量机分类器,它是一种基于几何间隔最大化的分类方法,将输入特征映射到高维空间,在高维空间中找到最优的超平面进行分类。SGDClassifier() 是 scikit-learn 库中实现支持向量机分类器的函数,它可以设置不同的损失函数和正则化方式。 Naive Bayes 是朴素贝叶斯分类器,它是一种基于贝叶斯定理的分类方法,假设特征之间相互独立,然后根据贝叶斯定理计算后验概率,最终进行分类。MultinomialNB() 是 scikit-learn 库中实现朴素贝叶斯分类器的函数,它适用于特征是离散的情况。 这些分类器都是机器学习中常用的分类算法,可以根据具体的问题选择适合的分类器。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值