神经网络
文章平均质量分 81
低吟浅笑
平庸并不可耻,只是你暂时还不够出色。 无知也并不可耻,只是你暂时还不够博学。 肤浅也并不可耻,只是你暂时还不够深刻。 我们只为自己而活。
展开
-
EfficientDet: Scalable and Efficient Object Detection
尽管NAS-FPN有很好的性能,但耗费大量时间,生成的要素网络是不规则的,难以解释。本文旨在更直观,更原则的方式优化多尺度特征融合。提出BiFPN,根据直觉:1>如果一个节点只有一个输入边且没有特征融合,那么它对融合不同特征的网络有很少的贡献,简化双向网络(这感觉有点牵强) 2>原始输入和输出节点处于同一级别,添加一条额外的边(类shortcut) 3>将每个双向路径视为一个feature network layer,重复多次以获得high-level feature fusion。原创 2023-10-15 22:35:49 · 899 阅读 · 0 评论 -
YOLOv4 论文总结
摘要:一些通用功能可以提高网络的性能的,认为包括:Weighted-Residual-connection(WRC) 加权残差连接、Cross-Stage-Partial-connections (CSP) 跨阶段部分连接, Cross mini-Batch Normalization (CmBN) 跨小批量标准化, Self-adversarial-training (SAT) 自对抗训练 and Mish-activation Mish激活。4.修改了最先进的方法,更有效且适合单GPU训练。原创 2023-10-13 13:12:35 · 181 阅读 · 0 评论 -
FPN:Feature Pyramid Networks for Object Detection
Feature Pyramid Networks for Object Detection引用量:6309 CVPR2017 Facebook AI网上很多关于这个文章的介绍,我这基本直接根据文章本身来的,并省略了应用和实验部分,后面有一些附图可以帮助理解。view:当真是开山之祖的感觉,很厉害,不需要多说。可以在各个算法中方便使用, 作为检测网络的Neck层。后续也提出很多变体,可以看EfficientDet。贡献:提出了特征金字塔网络,在检测/分割的多尺...原创 2021-03-08 11:20:38 · 314 阅读 · 0 评论 -
2022年Tesla技术分享
Tesla 2022年技术方案分享原创 2023-01-16 15:07:07 · 1391 阅读 · 0 评论 -
Dropout和BN为什么不能共同使用?
Dropout和BN原创 2022-09-01 16:23:36 · 1673 阅读 · 0 评论 -
神经网络和数据集的思考:数据集越大,性能越好?
一般来说,神经网络和大数据的关系十分复杂,影响因素包括:模型的大小,数据集的大小,计算性能, 还有其他因素, 如:人力、时间等。下面对现有的内容做了一个整理:一、 数据量VS网络性能1.总述在《Revisiting Unreasonable Effectiveness of Data in Deep Learning Era》中,Sun等人将过去10年来的计算机视觉技术取得了重大成功的原因归功于:1>复杂度更高的模型,2>计算性能的提高【参考1,参考2】,3>大规模标签数.原创 2022-04-10 23:09:31 · 15449 阅读 · 4 评论