深入了解LR

1.推导LR的求解公式

2.LR的正则化

3.LR的离散化

       将连续变量离散成多个变量后,每个变量就有自己的权重,相当于引入了非线性关系,增强了模型的表达能力,并且简化了模型;另一方面离散变量对异常数据有很好的鲁棒性;稀疏矩阵计算简单。更详细的解释请参考逻辑回归LR的特征为什么要先离散化对于特征离散化,特征交叉,连续特征离散化非常经典的解释

       关于模型是使用连续特征还是离散特征,李沐少帅指出:这就是“海量离散特征+简单模型” 同 “少量连续特征+复杂模型”之间的权衡。


4.LR的并行化

     详解并行逻辑回归


5.LR与线性回归的联系与区别

       这个没有统一的答案。

       @nishizhen:个人感觉逻辑回归和线性回归首先都是广义的线性回归,其次经典线性模型的优化目标函数是最小二乘,而逻辑回归则是似然函数,另外线性回归在整个实数域范围内进行预测,敏感度一致,而分类范围,需要在[0,1]。逻辑回归就是一种减小预测范围,将预测值限定为[0,1]间的一种回归模型,因而对于这类问题来说,逻辑回归的鲁棒性比线性回归的要好。
       @乖乖癞皮狗:逻辑回归的模型本质上是一个线性回归模型,逻辑回归都是以线性回归为理论支持的。但线性回归模型无法做到sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题。


6.LR与MaxEnt(最大熵模型)的联系与区别

      Logistic Regression 的前世今生(理论篇)


7.LR与SVM的联系与区别

     机器学习之SVM与逻辑回归的联系和区别


8.LR与bayes的区别

     朴素贝叶斯 VS 逻辑回归 区别

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值