YOLOv10改进 | 注意力篇 | YOLOv10引入ParNetAttention注意力

102 篇文章 48 订阅 ¥89.90 ¥99.00

1. ParNetAttention介绍

1.1  摘要:深度是深度神经网络的标志。但是,深度越大,意味着顺序计算越多,延迟也越长。这就引出了一个问题--有没有可能建立高性能的“非深度”神经网络?我们证明了这一点。为此,我们使用并行子网,而不是一层接一层堆叠。这有助于在保持高性能的同时有效地减少深度。通过使用并行子结构,我们首次证明,深度仅为12的网络在ImageNet、CIFAR 10和CIFAR 100上的准确率分别超过80%、96%和81%,可达到前1名的准确率。我们还表明,具有低深度(12)骨干网的网络可以在MS-COCO上实现48%的AP。我们分析了我们的设计的扩展规则,并展示了如何在不改变网络深度的情况下提高性能。最后,我们为如何使用非深度网络构建低延迟识别系统提供了一个概念证明。

官方论文地址:https://arxiv.org/pdf/2110.07641

官方代码地址:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值