逻辑回归深度学习注意点

1.简单介绍一下逻辑回归?
逻辑回归简单来说就是假设数据服从伯努利分布,然后通过极大化似然函数的方法,在运用梯度下降来求解参数,从而来达到将数据二分类的目的一个算法。
逻辑回归的基本假设,任何的模型都是有自己的假设,在这个假设下模型才是适用,第一个基本假设是假设数据服从伯努利分布。第二个假设是假设样本为正的概率是符合sigmoid的函数输出的。
逻辑回归一般都是通过对该函数进行梯度下降来不断逼近最优解。而梯度下降法又分为随机梯度下降,批梯度下降和小批量梯度下降三种方式。
批梯度下降:会获得全局最优解,缺点是在更新每个参数的时候需要遍历所有的数据,计算量会很大,每个参数的更新都会很慢。
随机梯度下降:每次使用一个样本点更新参数。所以代价的跳动会非常大。
小批量梯度下降:结合了sgd和batch gd的优点,每次更新的时候使用n个样本。减少了参数更新的次数,可以达到更加稳定收敛结果。
而最后的划分通常会划定一个阈值,h(预测值)值大于这个阈值的是一类,h值小于这个阈值的是另外一类。阈值具体如何调整根据实际情况选择。一般会选择0.5做为阈值来划分。
2. 为什么要使用极大似然函数作为损失函数?
损失函数一般有0-1损失函数、平方损失函数、绝对值损失函数、对数损失函数,合页损失函数。
将极大似然函数取对数以后等同于对数损失函数。在逻辑回归这个模型下,对数损失函数的训练求解参数的速度是比较快的。而且和sigmod函数本身的梯度是无关的。这样更新的速度是可以自始至终都比较的稳定。
(为什么不选平方损失函数的呢?其一是因为如果你使用平方损失函数,你会发现梯度更新的速度和sigmod函数本身的梯度是很相关的。sigmod函数在它在定义域内的梯度都不大于0.25。这样训练会非常的慢。)
3.如果有很多的特征高度相关或者说有一个特征重复了100遍,会造成怎样的影响?
如果在损失函数最终收敛的情况下的话,其实就算有很多特征高度相关也不太会影响分类器的效果。但是删除这些特征的话,可解释性会变的更好,速度也相应的更快。

4.逻辑回归的优点
形式简单,模型的可解释性非常好。从特征的权重可以看到不同的特征对最后结果的影响,某个特征的权重值比较高,那么这个特征最后对结果的影响会比较大。
模型效果在工程上也是比较可以接受的(作为baseline)
训练速度较快。分类的时候,计算量仅仅只和特征的数目相关。并且逻辑回归的分布式优化sgd发展比较成熟,训练的速度可以通过堆机器进一步提高.
资源占用小,尤其是内存。因为只需要存储各个维度的特征值。
方便输出结果调整。逻辑回归可以很方便的得到最后的分类结果,因为输出的是每个样本的概率分数,我们可以很容易的对这些概率分数进行设置阈值。

5.逻辑回归的缺点
准确率并不是很高,因为形式非常的简单(非常类似线性模型),很难去拟合数据的真实分布。尤其是在现在集成学习高速发展的情况下,在互相相对比时会感觉有比较明显的差距。
很难处理数据不平衡的问题。举个例子:假如我们有一写数据,正负样本非常不平衡,比如正负样本比 10000:1,在这样的情况下,我们把所有样本都预测为正也能使损失函数的值比较小。
处理非线性数据较麻烦。逻辑回归在不引入其他方法的情况下,只能处理线性可分的数据,或者进一步说,处理二分类的问题。逻辑回归本身无法筛选特征。
1、LR与SVM的联系和区别
相同点:
1、都是分类算法,且一般处理二分类问题
2、都是监督学习算法
3、两个方法都可以增加不同的正则化项,如l1、l2等等
4、都是判别模型
5、如果不考虑核函数,LR和SVM都是线性分类算法,也就是说他们的分类决策面都是线性的。

不同点:
1、损失函数不同:LR采用对数似然函数;
SVM采用的是合页损失函数。这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重
2、SVM的处理方法是只考虑支持向量,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重。所以, 线性SVM不直接依赖于数据分布,分类平面不受一类点影响;LR则受所有数据点的影响,如果数据不同类别并且极度不平衡的话,一般需要先对数据做标准化操作。
3、在解决非线性问题时,支持向量机采用核函数的机制,而LR通常不采用核函数的方法。因为SVM只有少数几个点运算,LR要全部进行运算。
4、Linear SVM依赖数据表达的距离测度,所以需要对数据先做标准化;LR不受其影响,但是如果要正则的话也要归一化
5、SVM不能产生概率,LR可以产生概率
6、SVM的目标函数就自带正则(目标函数中的1/2||w||^2项),这就是为什么SVM是结构风险最小化算法的原因。而LR必须另外在损失函数上添加正则项。
2.LR和线性回归的区别
逻辑回归和线性回归首先都是广义的线性回归,
其次经典线性模型是平方损失函数,而逻辑回归则是似然函数,
另外线性回归在整个实数域范围内进行预测,敏感度一致,而分类范围,需要在[0,1]之间进行预测。逻辑回归就是一种减小预测范围,将预测值限定到[0,1]之间的一种回归模型,因而对于这类问题来说,逻辑回归的鲁棒性比线性回归的要好。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值