线性回归与softmax回归的区别

线性回归是一种回归算法,根据当前数据去学习直线的两个参数。可以用输入特征维度为2输出为1的单层神经网络来实现。线性回归模型适⽤于输出为连续值的情景

 

softmax回归,是一种分类方法,模型输出可以是⼀个
像图像类别这样的离散值。对于这样的离散值预测问题,我们可以使⽤诸如softmax 回归在内的
分类模型。和线性回归不同,softmax 回归的输出单元从⼀个变成了多个,且引⼊了softmax 运
算使得输出更适合离散值的预测和训练。

Softmax 回归跟线性回归⼀样将输⼊特征与权重做线性叠加。与线性回归的⼀个主要不同在于,
softmax 回归的输出值个数等于标签⾥的类别数。

 

Softmax 回归同线性回归⼀样,也是⼀个单层神经⽹络。
由于每个输出o1; o2; o3 的计算都要依赖于所有的输⼊x1; x2; x3; x4,softmax 回归的输出层也是
⼀个全连接层。

交叉熵损失函数:

使⽤softmax 运算后可以更⽅便地与离散标签计算误差。我们已经知道,softmax 运
算将输出变换成⼀个合法的类别预测分布。实际上,真实标签也可以⽤类别分布表达:对于样本

交叉熵损失函数是一个用来衡量两个概率分布差异的测量函数。

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值