重振VGG雄风!主体仅使用3×3卷积和ReLU!据作者称,在ImageNet上,RepVGG的top-1准确性达到80%以上,这是基础模型的首次实现!综合性能超越ResNet、EfficientNet等,部分代码刚刚开源!
注1:文末附【计算机视觉细分垂直方向】交流群(含检测、分割、跟踪、医疗、GAN、Transformer等)
注2:欢迎点赞,支持分享!
RepVGG
RepVGG: Making VGG-style ConvNets Great Again
- 作者单位:清华大学(丁贵广团队), 旷视科技(孙剑等人), 港科大, 阿伯里斯特威斯大学
- 代码1:https://github.com/megvii-model/RepVGG
- 代码2(基于PyTorch):https://github.com/DingXiaoH/RepVGG
- 论文下载链接:https://arxiv.org/abs/2101.03697
我们提出了一个简单但强大的卷积神经网络架构,该架构具有类似于VGG的推理时间主体,该主体仅由3x3卷积和ReLU的堆栈组成,而训练时间模型具有多