![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文阅读笔记
文章平均质量分 77
AIWCZ
这个作者很懒,什么都没留下…
展开
-
基于深度学习的Graph Matching中损失函数的理解
挖坑原创 2021-10-26 18:52:41 · 677 阅读 · 1 评论 -
Graph Matching
受严骏驰老师讲座内容启发,最近项目中一个关键问题才找到了一些解决途径,为了能够快速对Graph Matching的起源和发展现状有一定了解,从而形成知识体系来更好得解决问题,准备慢下来,把这些知识沉淀下来,写成一篇blog。(讲座链接:https://www.bilibili.com/video/BV1Zf4y1S7Zr)Graph Matching 属于一种组合优化问题,图这类数据结构形式在推荐系统、知识图谱等中最为常见,而在计算机视觉领域中,为解决少样本学习或目标检测类别长尾分布等,图结构也有较多工原创 2021-10-11 11:53:23 · 1683 阅读 · 0 评论 -
GradNorm: Gradient Normalization for AdaptiveLoss Balancing in Deep Multitask Networks 论文笔记
①目的:1.促使不同任务损失的量级接近。2.促使不同任务以相近的速度来进行学习。②实现:总损失 = w1 *任务一损失 + w2*任务二损失 + w3*任务三损失对w1,w2,w3建模损失函数,实现①中的目的2.1 衡量任务loss的量级2.2 衡量任务loss的学习速度上式表示 相对反向训练速度,其越大,表示任务i在所有任务中训练越慢。2.3 Gradient Loss(GL)其中α是超参,其他的上面已经定义。①当某个任务的梯度标准化值 较 平均值过大或过小时 都会产生相应原创 2021-10-10 16:02:48 · 380 阅读 · 0 评论 -
Is Sampling Heuristics Necessary in Training Deep Object Detectors? 论文笔记
我个人认为,这篇论文的行文逻辑比较清晰,实验数据也比较充分,可以作为自己写论文的一个范本进行学习。作者首先从一阶段与二阶段检测器的简要介绍开始,指出两者的共同点之一是都有采用anchor的机制,而其采用的anchor数量作者用massive来形容,但事实上只有很少的anchors会与物体相交较多,那么不采用anchor可以吗?当然可以,作者接着介绍了anchor-free的方式,最后引出本文想要解决的问题——the imbalance between foreground and background .原创 2021-10-10 16:00:46 · 295 阅读 · 0 评论