![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
dl
文章平均质量分 76
09ganpginj
这个作者很懒,什么都没留下…
展开
-
NeuralMapPrior(NMP)和NeuralMapGrowing(NeMO),对BEVFeature建图
1)对于离线经验的建模2)两篇都对BEV特征进行空间记录与融合,但侧重略有不同。原创 2023-06-18 22:15:56 · 399 阅读 · 0 评论 -
2021-02-24 Transformer
参考Transformer为何能闯入CV界秒杀CNN原创 2021-07-04 17:31:12 · 89 阅读 · 0 评论 -
2021-06-30 SuperGlue
问题原创 2021-07-01 01:02:27 · 181 阅读 · 0 评论 -
2021-02-09 RCNN series
Faster R-CNN在出现5年之后,据称也仍是一个常用的目标检测做法,值得了解学习一下其整个系列的思路。R-CNN(Regions with CNN features)系列有最开始的R-CNN,改进的Fast R-CNN,和之后再改进的Faster R-CNN。比较好的对比,和总结:一文读懂目标检测:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD一文读懂Faster RCNNR-CNN & Fast R-CNN & Faster R-CNN原创 2021-02-10 00:49:54 · 142 阅读 · 0 评论 -
2021-02-08 BN
Batch Normalization0. 总结有意思的是,原始论文宣称BN对Internal Covariance Shift有改善作用,之后的论文却提出了反驳。但是,BN的作用确实存在。参考Youtube介绍,BN的好处:收敛更快(让代价曲线从椭圆变成园,有利于梯度下降)对初值要求更低(一点点)带有regularization作用有如下有用的参考资料:[1] 2015 paper that introduced Batch Normalization: https://arxiv.原创 2021-02-09 01:01:32 · 128 阅读 · 0 评论 -
2021-02-01 ResNet
Resnet0 总结原创 2021-02-08 00:35:11 · 312 阅读 · 1 评论 -
2021-01-31 VGG16
0研究卷积网络的深度的作用。其他博客todoIntro原创 2021-01-31 23:24:24 · 196 阅读 · 0 评论 -
2021-01-25 Alexnet
Alexnetimagenet 15M图片 22K类别ILSVRC 1000图x1000类 1.2M训练集 50K验证 150K测试预处理降分辨率 crop到 256×256,保持宽高比减去训练集真值原创 2021-01-31 23:24:11 · 98 阅读 · 0 评论