学习笔记--YOLOv10

物体检测类型:

1.通用物体检测(yolo系列)
是检测数字图像中没有限制的物体实例,并从预设的分类中预测它们的类别属性。
2.显著物体检测(BBS-Net):
检测最为突出的物体,即人们总是先会关注那些更加吸引自己的目标。此任务的目标就是通过分析图像的视觉特征,来突出图像中与周围环境显著不同的目标。

传统方法和存在问题:

1.方法流程:
早期和后续的方法通常采用区域选择模块来提取区域特征并预测每个候选区域的激活概率
2.存在问题:
太多数将每个候选区域的识别分开处理,面对非典型和非理想的场合如(重度长尾数据分布和大量混乱类别)的时候会有表现的下降。

创新点一:面向大规模目标检测的空间感知图关系网络

如何在没有任何外部知说的情况下正确编码检测系统中的高阶目标关系?如何利用共现和对象位置之间的信息进行更好的推理?这营佰颜是大规慢目标检测系统而临的关键挑战,该系统着在说别当今数于个与复杂空间和语义关系纠塘在一起的物体,提炼可能影响对象说别的关键关系至关重要,因为在面对繁围的长尾数据分布和大量令人图照的类别时,单独处理每个区域会导致性旅大幅下降。最近的工作试照通过构建圈来编码关系,例如在班级之间使用手工语高知识或在区域之间隐式学习全连接图,然而,由于语言和规觉上下文之间的语义养距,手工语言知识无法针对每个图像进行个性化,而全连接堅通过整合来自不相关对象和背果的冗余和分散的关系/边缘而效率低下且墙杂。在这项工作中,我们引入了一个空间感知图关系网络(SGRN)来自适应发现和整合关键的语义和空间关系,以便对每个对象进行推理。我们的方法考虑了相对位置布局和交互,可以很容易地注入到任何检爱管道中以搬高性能,具体来说,我们的SGRN 集成了一个图学习器慢块,用于学习可互换的稀动逐结构以编码相关的上下文区域,以及一个具有可学习空间高斯极的空间超推理模块,以执行具有空间感的图推理,大量的实验验证了我们方法的有效性例如,在mAP方面,VG(3000类)提亮了约32%,ADE提亮了28%

创新点二:图神经GNN优势

模型优势:
GNN能对区域之间的相关性进行显式的建模并利用它们得到更好的表现举例:空间关系感知网络(SGRN)。

模型组成:
稀疏图学习器:训练过程中显式的学习图结构信息。
空间感知图嵌入模块:利用学习到图结构信息获取图表征。

模型流程

提出问题:

KNN真的好吗?
需要去计算每个区域的相似度它真的计算简单吗?
他必须取前k个,万一我相似度都很低也必须去取到前k个难道不会引入冗余信息?

问题解决:greedyvig新的图构建方式

GreedyViG:用于高效视觉GNN的动态轴向图构建

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值