Softmax回归是解决多分类问题,
y
有多个类别,如在mnist数字识别中,
首先,给定输入
x
,它代表类别
evidence(i)=∑iwix+bi
其中 wix 代表权重,代表偏置,然后用softmax函数转为概率 y .
其中
softmax(x)=normalize(exp(x))=exp(x)/∑iexp(xi)
这个幂运算表示,更大的证据对应更大的假设模型里面的乘数权重值,更进一步,整个计算过程可以写成:
y=softmax(wx+b)