凸函数与凹函数

    最近在学机器学习的逻辑回归,它的思路很简单,最开始我们做的是线性回归,也就是根据已知样本拟合出一条能够描述其分布的线来,而它的评价标准是最小平方差。

    为什么是最小平方差,而不是诸如差的绝对值之类的评价指标,这个就涉及到“最小二乘法”的思想,我们认为线性回归的预测值与真实值之间的差值是符合高斯分布的,对这个的评估就转化为对正态分布表达式中参数的评估,用极大似然估计,便得到损失函数的表达式。

    那为什么逻辑回归用的是对数损失函数呢?之前视频的解释是最小平方差会导致损失函数为非凸函数,而非凸函数面临的一个问题就是,有多个局部最优解,使损失函数达不到全局最优。

    逻辑回归假设样本满足的是伯努利分布(也就是0-1分布),这也是区别于线性回归的地方。


  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值