详解逻辑回归中令人疑惑的损失函数的推导

  • 在用tensorflow实现逻辑回归时,看损失函数的推导公式让人疑惑,下面我就来解读一下。

    • 1、必须先知道的是:tensorflow中的tf.log()函数,不是以2为底的,是以e为底的。看。。。
      在这里插入图片描述

    • 2、接下来再看推导就清楚了。。。下面推导也就是tf.nn.sigmoid_cross_entropy_with_logits的封装。

    • 3、推导如下:假设x是预测输出的值,还未经过Sigmoid函数映射,z为真实的标签值。x = logits,z=labels

      	z * -log(sigmoid(x)) + (1 - z) * -log(1 - sigmoid(x))
        = z * -log(1 / (1 + exp(-x))) + (1 - z) * -log(exp(-x) / (1 + exp(-x)))
        = z * log(1 + exp(-x)) + (1 - z) * (-log(exp(-x)) + log(1 + exp(-x)))
        = z * log(1 + exp(-x)) + (1 - z) * (x + log(1 + exp(-x))
        = (1 - z) * x + log(1 + exp(-x))
        = x - x * z + log(1 + exp(-x))
      
      • 公式中有很多人疑惑为什么-log(exp(-x))=x,知道了tensorflow中的log其实是ln是不是很清楚了呢。。。
      • 上述公式中,为了避免x<0时,exp(-x)溢出的问题,采用下面的变形。变形中的x=log(exp(x))是不是也就很清楚了呢。。。
       	x - x * z + log(1 + exp(-x))
        = log(exp(x)) - x * z + log(1 + exp(-x))
        = - x * z + log(1 + exp(x))
      
      • 这样就解决了x<0时的溢出问题,将上面两个公式用一个统一的公式来表达,就是下面的公式,也就是最终的公式如下:
         max(x, 0) - x * z + log(1 + exp(-abs(x)))
        
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值