损失函数_损失函数和评价指标

引言

最近做图神经网络相关内容的时候,发现相关的损失函数和评价指标方面的内容还有所欠缺,借着周日的总结的机会,大致的总结一下。

损失函数

交叉熵损失函数

这个函数出现在节点分类中,主要是多分类和二分类。

二分类问题:

其中,

表示样本,
表示实际的标签,
表示预测的输出,
表示样本的总数量

多分类问题

需要注意的是输入数据是softmax或者是sigmoid的输出。 在GCN的鼻祖论文中损失函数就是采用的上面的损失函数,只不过稍加改变为半监督分类中的损失函数:

其中,

是包含label的节点索引。

到目前为止,见到的也就是上面的这种损失函数判断分类损失,为了避免以后遇到更多,所以把机器学习常见的加以总结。

L2损失函数

公式如下:

其中

表示实际的类别标签,
表示预测的类别便签。

L1损失

和式子②的区别在于采用绝对值度量。

Hinge 损失函数

标准形式如下:

其中,0表示分类正确的损失,

表示为分类错误的损失。

评价指标

在阅读过多的论文之中,评价指标一般采用四种,准确率、F1、Micro-F1及Macro-F1。

首先先记录一下基本的概念,TP、FP、FN及TN,精确率和召回率

  • TP: 预测为正,实际也为正
  • FP:预测为正,实际为负
  • FN:预测为负,实际为正
  • TN:预测为负,实际为负

精确率:

召回率:

F1-score

Micro-F1

通过先计算总体的TP,FN和FP的数量,再计算F1

例子(来源):

一共包含四类,1,2,3,4即(ABCD)

实际的标签:1 1 1 1 1 2 2 2 2 3 3 3 4 4

预测的标签:1 1 1 0 0 2 2 3 3 3 4 3 4 3

得到的结果如下表:

b3637f6ef44fc9603d3b7980cfd88aac.png

新的

=8/(8+4)=0.666,
=8/(8+6)=0.571。因此Micro-F1:0.62

Macro-F1

计算各类的

,得到平均

分布计算每个类别的F1,然后做平均(各类别F1的权重相同)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值