- 博客(5)
- 收藏
- 关注
原创 pytorch中的loss函数(5):CrossEntropyLoss
1、CrossEntropyLoss的原理loss函数公式:公式的推导:因为,且对于一个样本,只有一个的值是1,其它的值都是0。所以,loss函数又可以写成:...
2020-03-24 11:39:26
312
原创 pytorch中的loss函数(4):MSELoss
1、MSELoss原理MSELoss计算预测值和真实值的mean squared error (squared L2 norm,均方误差) 。若是mean:先计算预测值x与真实值y这两个tensor中的对应位置的两个元素的差的平方,得到一个新的同样大小的tensor,然后求这个tensor中所有元素的均值;若是sum:先计算预测值x与真实值y这两个tensor中的对应位置的两...
2020-03-21 10:46:44
1735
原创 pytorch中的loss函数(3):L1Loss
1、L1Loss原理L1Loss计算预测值和真实值的mean absolute error (MAE,平均绝对值误差)。其中: x:(N, *)(N,∗)where*∗means, any number of additional dimensions y:(N, *)(N,∗), same shape as the input Outpu...
2020-03-21 10:33:25
5025
原创 pytorch中的loss函数(2):SoftMarginLoss
SoftMarginLoss针对two-class classification(二分类)问题。loss计算公式:其中,;是pytorch中统计tensor中元素的个数,例如:x = torch.randn(size = (1,3,4,6)) print(x.nelement())结果为元素个数1 * 3 * 4 * 6的函数曲线如图1所示:当y[i]=...
2020-03-21 09:26:48
7680
原创 pytorch中的loss函数(1):MultiLabelSoftMarginLoss
MultiLabelSoftMarginLoss针对multi-label one-versus-all(多分类,且每个样本只能属于一个类)的情形。loss的计算公式如下:其中,x是模型预测的标签,x的shape是(N,C),N表示batch size,C是分类数;y是真实标签,shape也是(N,C),。的值域是(0,);的值域是(1,);的值域是(0,1);的值域是...
2020-03-20 18:19:24
15837
10
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人