深度学习
文章平均质量分 92
武士四四和他的大白鸟
这个作者很懒,什么都没留下…
展开
-
DSVT: Dynamic Sparse Voxel Transformer with Rotated Sets(CVPR2023)
3D目标检测、自动驾驶、CVPR2023、3D感知、分割、DVST原创 2023-06-14 16:00:53 · 293 阅读 · 0 评论 -
ATSS:Adaptive Training Sample Selection
本文提出了一种基于目标统计特性的无超参数自动划分正样本和负样本的ATSS方法。算法1描述了该方法如何对输入图像进行处理。对于图像上的每个ground-truth box ggg,我们首先找出它的候选正样本(positive)。如第3 - 6行所述,在每个金字塔层级上,我们根据L2距离选择中心最接近ggg的中心的kkk个锚盒(anchor box)。假设存在LLL个特征金字塔水平,则ground-t...原创 2020-04-08 17:41:14 · 288 阅读 · 0 评论 -
SAPD:Soft Anchor-Point Object Detection(一)翻译
论文:https://arxiv.org/abs/1911.12448.时间:2019年11月27团队:CMU(第一作者也是FSAF的第一作者)说明:(一)翻译,(二)总结(敬请期待)摘要近来,anchor-free检测器展现出了精度、速度均超越anchor-based检测器的巨大潜力。本文致力于为anchor-free检测器寻找一个新的速度-精度tradeoff。在文中,我们研究了两个...原创 2020-04-07 11:43:39 · 1078 阅读 · 0 评论 -
FSAF:Feature Selective Anchor-Free Module for Single-Shot Object Detection笔记
论文地址: https://arxiv.org/abs/1903.00621.作者在B站解读视频:https://www.bilibili.com/video/av49972561/.先看看效果,我们提出的特征选择无锚点模块(FSAF)应用在单阶段检测器RetinaNet上,使用ResNeXt-101在COCO数据集上达到单阶段SOTA,map提升了1.8%仅多用了6ms。如图,FSAF对小...原创 2020-04-02 11:22:03 · 284 阅读 · 0 评论 -
深度学习中的Normalization,BN/LN/WN
1.概念normalization是什么?我的上一篇博客Feature scaling对一些线性数据处理进行了大致阐述,其中包括Z-score normalization,就是减去均值除以标准差,而我们今天要讲的normalization(归一化)就是在其基础上再施以一个线性映射,一个再平移。即:h=f(gx−μσ+b).h = f(g{ x- \mu\over \sigma}+b).h=...原创 2020-03-23 09:55:52 · 290 阅读 · 0 评论 -
Feature scaling(特征缩放)
前言:在读到一篇文章常用 Normalization 方法的总结与思考:BN、LN、IN、GN时,发现越看越看不懂了,但是这里面有一些容易混淆的知识点,博主认为还是值得记录。1.概念normalization有些通称归一化或者标准化,也有说归一化属于标准化的,害,越看越糊涂。这里也有翻译的锅。直接用英语和表达式来区分吧。四种Feature scaling(特征缩放)方法:Rescaling...原创 2020-03-21 22:57:19 · 577 阅读 · 0 评论