![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
不好取ID吗
永远对下一刻充满期待。
展开
-
常见损失函数深度剖析之多分类
常见损失函数深度剖析之多分类###1.多类交叉熵多类交叉熵是多类别分类问题的默认损失函数,也叫softmax损失函数(softmax激活层+交叉熵损失函数)。多类交叉熵中,因类别标签进行过0-1独热编码,在输出概率向量中,与独热项对应的预测项才参与模型损失的贡献。###2.稀疏多类交叉熵如果类别标签过多,例如与文本词袋相关的分类问题,标签就有上千个,进行独热编码将不...原创 2020-01-25 21:14:19 · 2199 阅读 · 1 评论 -
常见损失函数深度剖析之二分类
常见损失函数深度剖析之二分类###1.二值交叉熵二值交叉熵是二分类问题的默认损失函数,用于目标变量满足{0,1}二值分布的二分类模型中。交叉熵回顾——交叉熵是信息理论学里面,用来衡量两个概率分布之间的不相似度,交叉熵越小,概率分布就更相似。参照交叉熵的定义,二分类问题中的交叉熵就应由两部分组成。即真实值为1的概率分布与模型应当预测为1的概率分布间的交叉熵,以及真实...原创 2020-01-25 21:10:25 · 5447 阅读 · 0 评论 -
常见损失函数深度剖析之回归
常见损失函数深度剖析之回归###1.均方误差损失函数均方误差损失函数——MSE,通常是回归问题的首选损失函数,很多机器学习框架中的回归分析模块,都默认使用MSE。如果目标变量满足高斯分布,或近似满足高斯分布,可能就应更偏向于使用均方差函数作为模型的代价函数。误差平方化将会使较大的误差被放大,意味着模型主要针对大误差进行惩罚。如果用神经网络进行回归预测,最后的激活层也推荐...原创 2020-01-25 21:05:43 · 468 阅读 · 0 评论 -
损失函数
####在训练网络的时候,我们应当如何来选择适当的损失函数(上) 神经网络基于样本数据来学习一个从输入变量(自变量)到输出变量(目标变量)的映射,损失函数的选择就必须匹配实际的预测问题。 回归、二分类、多分类是三大最常见的预测问题。###1.回归问题常见损失函数 Mean Squared Error Loss——均方误差损失函数 MSE Mean ...原创 2020-01-10 10:15:03 · 182 阅读 · 0 评论