SVM、LR如何做多分类

一、普适多分类学习

参考文献:西瓜书p63
这里写图片描述
这里写图片描述
这里写图片描述

二、LR做多分类

先回顾基本的二项逻辑回归
https://blog.csdn.net/csdn_lzw/article/details/79594958
这里写图片描述
逻辑回归通过比较两个条件概率值的大小,将实例分到概率值大的那一类。

多项逻辑回归

参考文献 统计学习方法p80
这里写图片描述
多项逻辑回归又称softmax回归
参考文献https://blog.csdn.net/google19890102/article/details/49738427
这里写图片描述

三、多分类算法和二分类算法的选择

参考文献:http://deeplearning.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92
有人会觉得对于一个多分类问题,可以使用多个二分类来完成,对于多分类问题是直接选择多分类的分类器还是选择多个二分类的分类器进行叠加,在UFLDL中,作者给出了这样的解释:取决于类别之间是否互斥。

对于一个多分类的问题,是直接选择多分类器直接计算还是选择多个二分类器进行计算取决于问题中类别之间是否互斥。

是互斥的 –> 多分类器或者多个二分类器
不是互斥的 –> 多个二分类器
基于贝叶斯、支持向量机(SVM)和逻辑回归(LR)的垃圾邮件分类可以分为以下几个步骤: 首先,我们需要收集训练数据集,该数据集包括一些已标记为垃圾邮件和非垃圾邮件的样本。对于贝叶斯方法,我们需要统计每个单词在垃圾邮件和非垃圾邮件中出现的频率,并计算出每个单词在垃圾和非垃圾邮件中的条件概率。对于SVMLR方法,我们需要将邮件的特征提取为数值向量,如词频、字符数、链接数量等。 在训练阶段,对于贝叶斯方法,我们根据训练集中垃圾邮件和非垃圾邮件的词频统计数据,计算出每个单词出现的概率。对于SVMLR方法,我们使用训练集的特征向量和相应的标签进行模型训练。 在测试阶段,对于贝叶斯方法,我们根据训练阶段计算得到的单词概率,结合测试邮件的单词频率来计算垃圾和非垃圾邮件的条件概率,并根据概率进行分类。对于SVMLR方法,我们使用训练阶段得到的模型对测试集进行预测,并根据预测结果判断邮件是否为垃圾邮件。 贝叶斯方法基于贝叶斯定理,通过计算单词在垃圾和非垃圾邮件中的概率来进行分类。SVM方法通过在高维空间中找到一个最优的超平面,实现垃圾邮件和非垃圾邮件的分割。LR方法利用对数几率函数来建立一个线性模型,用于将邮件分类为垃圾或非垃圾。 在实际应用中,这些方法在垃圾邮件分类中表现良好,但也存在一些限制。贝叶斯方法对于单词顺序不敏感,如果测试邮件中存在新的单词,将无法给出准确的分类。SVMLR方法对于特征选择较为敏感,需要在特征提取阶段精心选择合适的特征。此外,模型的性能还受到数据集的大小和质量等因素的影响。综上所述,选择适合的方法和优化相关参数是确保垃圾邮件分类准确性的关键。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值