GradNorm: Gradient Normalization for AdaptiveLoss Balancing in Deep Multitask Networks 论文笔记

目的
1.促使不同任务损失的量级接近。
2.促使不同任务以相近的速度来进行学习。

实现
总损失 = w1 *任务一损失 + w2*任务二损失 + w3*任务三损失

对w1,w2,w3建模损失函数,实现①中的目的
在这里插入图片描述

2.1 衡量任务loss的量级

在这里插入图片描述
在这里插入图片描述
2.2 衡量任务loss的学习速度

在这里插入图片描述
在这里插入图片描述上式表示 相对反向训练速度,其越大,表示任务i在所有任务中训练越慢。

2.3 Gradient Loss(GL)

在这里插入图片描述其中α是超参,其他的上面已经定义。
①当某个任务的梯度标准化值 较 平均值过大或过小时 都会产生相应损失。
②ri(t)位于减号一侧,是由于某个任务梯度标准化值过大,与训练过快时(ri(t)变小),都会产生同样的损失方向,即loss增加。

2.4 算法描述
在这里插入图片描述
在这里插入图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值