损失函数

Multiclass SVM loss:Hinge loss
在这里插入图片描述
其中s_yi是正确类得分,s_j是不正确类得分;1为边际值,表示很大;if Syi >> Sj , loss为0

softmax函数

在这里插入图片描述

在这里插入图片描述

Softmax回归处理

神经网络的原始输出不是一个概率值,实质上只是输入的数值做了复杂的加权和与非线性处理之后的一个值而已,那么如何将这个输出变为概率分布?

这就是Softmax层的作用,假设神经网络的原始输出为y1,y2,….,yn,那么经过Softmax回归处理之后的输出为:

在这里插入图片描述

很显然的是:
在这里插入图片描述

Softmax回归处理就是:使单个节点的输出变成的一个概率值,经过Softmax处理后结果作为神经网络最后的输出。

神经网络的Loss函数:Softmax层+Cross Entropy(交叉熵)

在这里插入图片描述
线性回归问题解未知参数==>最小二乘法 loss function选MSE
MSE可以用于最大似然估计,最小化MSE与最大化似然函数效果相同。
大多数现代的神经网络使用最大似然来训练,这意味着loss function就是负的对数似然。

应用最大似然原理的具体损失函数例子

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值