逻辑回归(LR)算法面试问题汇总

自己救自己系列,越准备资料,越来越发现基础真的好重要,加油啊

莪只是个木得感情的搬运机器,以下内容都附有原链接地址,你不想我搬运的话,可以联系我删除好勒。

红色加粗是我见了好多次,感觉经常会考得点。

 

LR真的是感觉经常考,但是看完《统计学习方法》又感觉啥都没讲啊,公式超多,和其他知识又都能联系起来,感觉还是听从大佬建议,面试不要说自己精通LR吧。好好准备吧。


1、LR原理及公式推导

       即: LR的假设分布形式 -> 构造最大似然损失函数 -> 通过优化等方法得到最优值。

       可以参考 https://www.cnblogs.com/bonelee/p/7253508.html

       其最后的梯度上升的推倒真的很清晰,这个面试会让手动推的。

       再其中推倒过程中涉及到sigmoid函数及其求导,这个太基础了必须要记。

       另外这位大佬的讲解和《统计学习方法》讲的最接近,但好多图丢了, 不过里面有很多延伸问题可以看看。 https://blog.csdn.net/cyh_24/article/details/50359055

 

2、LR的损失函数

      即上面构造最大似然函数,然后取log得到的结果

3、 LR求解方法、目的、如何分类

4、 LR的损失函数为什么要使用极大似然函数作为损失函数?

5、LR在训练的过程当中,如果有很多的特征高度相关或者说有一个特征重复了100遍,会造成怎样的影响?

6、为什么我们还是会在训练的过程当中将高度相关的特征去掉?

7、 LR优缺点

      以上2-7答案全部在这个全网都在抄的大佬博客里 https://www.cnblogs.com/ModifyRong/p/7739955.html

     大佬博文中涉及的问题一定要会,毕竟大佬就是面试官。

      

8、LR和SVM的联系和区别?

     见此 https://www.jianshu.com/p/e8dca5613da6, 感觉对每个不同的理解又是一个新问题

 

你以为这些就够了吗? too naive!!

LR能用核吗?归一化怎么弄?正则化呢?CTR预估呢?各种黑人问号,参看下面知乎大佬的整理

https://www.zhihu.com/question/314023182

https://zhuanlan.zhihu.com/p/58434325?utm_source=qq

 

暂时我是没有脑容量继续深入了解下去了,以后再更吧。

但重要的事不能忘!

面试官:你熟悉LR吗?

 我:不,我只会一丢丢丢丢!!!

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值