机器学习第五天:logestic regresion逻辑回归

 第一步中建立的函数集是:f_{w,b}(x)=P_{w,b}(C1|x)

 

 

最有可能的w*和b*是使L(w,b)最大的那个。 

 

 两个贝努利分布之间的交叉熵

 问题:为什么我们不简单地使用平方差作为线性回归?

 

 

 \hat{y}^{n}是目标,f_{w,b}(x^{n})是现在模型的output,相减差代表离目标的差距有多大                                    

 逻辑回归和线性回归有相同的update公式,只是代入的值不同

 \hat{y}^{n}=1时,离目标很远或很近,微分都为零

 \hat{y}^{n}=0时,离目标很远或很近,微分也都为零

 

 在交叉熵中,离目标远则微分大,update变化量大

在平方差中,离目标远微分小,update速度慢

 逻辑回归和generative用的一样的模型,但找出的是不一样的参数,找到的w和b也不一样

 

 

 

 

 

generative模型的好处

●用假设概率分布,则需要较少的训练数据

●用假设概率分布,抗噪声能力强

●先验概率和类相关概率可以从不同的来源进行估计。

 做完softmax会限制output

maximum entropy也类似

 y是probability distribution

minimize cross entropy来自于maximum likelihood

 做不到将class1和class2平分为两边

 

 找到transformation不容易

级联逻辑回归模型 

通过两个logistic regression model得到transformation后的x1‘,x2’

再用另外一个loigstic regression model进行classification

 

用红色的logistic regression将红蓝点分开 

 每个logistic regression都是一个neuron神经元,整个就是神经网络

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值