【逻辑回归】常见面试题

写完这部分后参加联想实习面试,问到了好几个。 

面试已过


逻辑回归是一个二分类算法,假设特征和结果存在线性映射关系,存在一个目标函数使得输入一个样本后得到对应的概率,再通过sigmoid函数根据设定的阈值分成两类。可以简单认为是线性回归+sigmoid函数。

基本假设:输出的类别服从伯努利二项分布,即输出的结果要么为0,要么为1。

损失函数:逻辑回归的损失函数是它的极大似然函数。

什么是极大似然估计呢?就是根据给定的样本信息,推测最大可能导致这些样本结果出现的模型参数是什么。为什么使用极大似然函数?因为极大似然函数是高阶连续可导的凸函数,可以得到全局最优解。

正则化:在损失函数后加上惩罚项,对某些参数作一些限制

        参考:

L1正则化方法(lasso)和L2(ridge)正则化方法的区别_wangyanao520的博客-CSDN博客_对于线性回归模型l2正则化方法是指

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值