逻辑回归数学推倒讲解

the logistic function公式

θ=es1+es 其中入参是s,也就是神经元的信号s= WTX , 它的意思是归类到目标分类的概率是多少。这个公式也叫sigmoid,因为他是平滑的临界值。

现在我们有h(x)= θ(s) ,这个被解释为一个概率的含义,举个例子,比如心脏病的概率是多少。
输入为一个向量x: 血脂水平,年龄,体重,血压等。
θ(s) :就是心脏病的概率,我们知道s= WTX 可以理解为 风险指数。

推广到一般的概率概念

数据 Data(x,y) 里面的y是二进制啊。这个数据集并没有给你概率,而是直接给你了到底y是归属与某个分类与否,举个例子,比如到底有心脏病,还是没有。并不会告诉你25%的概率生心脏病。

那么 y是有一个噪声的,并不准确。所以说目标函数

  • p(y|x)=f(x) for y=+1,

  • p(y|x)=1-f(x) for y=-1
    公式1

y的分布概率是通过f来产生的。

我们想来学习一个目标函数g(x)= θ(WTX) f(x)

现在的问题就是,我们如何来找到一个w,它能够产生和样本一样的概率分布的y。

错误度量

每一个(x,y) ,y 是被概率f(x)来产生的,比较常用的错误代价函数是likelihood
如果 目标函数就是f, 那么从x产生y的概率有多像,多类似。

如何来计算呢,我们来再回顾一下

  • p(y|x)= θ(ywTx) 这个公式可以用来替代公式1
  • θ(s)=1θ(s)

数据集的最大似然 D=(x1,y1),…,( xn,yn) 可以写成一个概率的连乘,这样就是把所有测试数据里面的的概率都考虑了一便。

公式如下:

max_value= Ni=1θ(ynwTxn)

相当于最小化:

min_value=- 1NNi=1θ(ynwTxn)

我们的目标就是把这个连乘写成一个对数函数的相加.

min_value= 1NNi=1ln(1θ(ynwTxn))

这里 θ=11+es 所以上述公式可以简化为:

Ein=1NNi=1ln(1+eynwTxn)

所以我们的误差度量函数可以写成如下的形式:

e(h(xn),yn)=ln(1+eynwTxn)

未完待续

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值