softmax regression

我们给出一个GLM的例子,是logistic regression的推广,应用于多类分类。所以,我们有y ∈{1, 2, . . . , k },我们用k个参数φ1, . . . , φk来表示k个输出的概率,由于第k个参数是多余的,所以我们只用k-1个参数,而


为了将其描述为指数族,我们将定义



在这里,T(y)不再等于y,而是一个k-1维的向量。

我们引入一个类似于布尔函数的东西1{·},满足1{True} =1, 1{False} = 0。例如,1{2 = 3}= 0, 1{3 =5 − 2} = 1。所以,对于T(y),有


然后有


紧接着


其中


链接函数:


推出响应函数:


这个将η映射到φ的函数被称为softmax函数

然后有


这个应用于y ∈ {1, . . . , k }的分类模型,被称为softmax regression。


对于给定的

为了得到这个模型的θ,我们可以写出log-likelihood


然后我们可以利用梯度下降或者牛顿法寻求其最大值。

下面介绍Cost Function:


为了与logistic regression的cost function相一致,我们写成下面的形式:


为了使cost function最小,我们要先计算梯度:


但是就像是线性回归与logistic regression一样,我们引入惩罚因子(Weight Decay)来抑制过拟合(overfitting),我们的cost function就变成了这样:


梯度为:


最小化 cost function与最大化最大似然估计等价
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值