loss
文章平均质量分 66
月韵清风
这个作者很懒,什么都没留下…
展开
-
交叉熵(Cross Entropy loss)
交叉熵 分类问题常用的损失函数为交叉熵(Cross Entropy Loss)。 交叉熵描述了两个概率分布之间的距离,交叉熵越小说明两者之间越接近。 原理这篇博客介绍的简单清晰: https://blog.csdn.net/xg123321123/article/details/52864830 总结: 熵是信息量的期望值,它是一个随机变量的确定性的度量。 熵越大,变量的取值越不确定;反之,熵越小...原创 2018-10-25 22:20:54 · 2357 阅读 · 0 评论 -
pytorch loss总结与测试
pytorch loss 参考文献: https://blog.csdn.net/zhangxb35/article/details/72464152?utm_source=itdadao&utm_medium=referral loss 测试 import torch from torch.autograd import Variable ''' 参考文献: https://blog....原创 2018-10-25 23:18:19 · 630 阅读 · 0 评论