深度学习
文章平均质量分 85
主要解读github上的优秀源码,供初学者快速入门
咖啡味儿的咖啡
这个作者很懒,什么都没留下…
展开
-
【Simple Copy-Paste is a Strong Data Augmentation Method for Instance Segmentation】
论文链接:https://arxiv.org/abs/2012.07177 作者单位:谷歌大脑本篇文章中,作者对copy-paste方法做了系统性的研究。之前的copy-paste方法需要考虑图片的周围的场景,作者发现其实简单的随机copy-paste方法就已经非常好用了。作者把coco的记录再一次刷新,实例分割涨了0.6个点,目标检测涨了1.5个点,拿了个双料第一,实例分割达到了49.1,目标检测达到了57.3。作者使用的是Cascade Eff-B7 NAS-FPN做的研究,不知道此方法在Sca..原创 2020-12-25 14:26:23 · 1256 阅读 · 0 评论 -
【A Quantization-Friendly Separable Convolution for MobileNets】
1 Introduction两点contributions:We identified batch normalization and ReLU6 are the major root causes of quantization loss for MobileNetV1 We proposed a quantization-friendly separable convolution, and empirically proved its effectiveness based on Mob..原创 2021-05-25 16:25:12 · 418 阅读 · 0 评论 -
【Mask RCNN】论文详解(真的很详细)
论文:http://cn.arxiv.org/pdf/1703.06870v3本文主要是针对论文的详细解析,选出文章各部分的关键点,方便阅读立即。目录:摘要:1、Introduction2、Related Work3、Mask R-CNN3.1 Implementation Details4、Experiments: Instance Segmentation4...原创 2018-10-18 00:42:14 · 206613 阅读 · 31 评论 -
【合集】CV中的各种Normlization汇总
目录BNLNINGNBGNBatch Normalization论文:《Batch Normalization: Accelerating Deep Network Training b y Reducing Internal Covariate Shift》链接:https://arxiv.org/pdf/1502.03167.pdf最常见的归一化方法,LNINGNBGN...原创 2020-12-12 16:12:07 · 456 阅读 · 0 评论 -
【Scaled-YOLOv4】
COCO数据集AP被刷到了55.4%(FPS=15),核心是在YOLOV4上研究模型缩放(model scaling)技术。台湾同胞的论文,写的有点拗口就不直译了。。Abstract我们证明了使用CSP方法的YOLOv4目标检测网络在向下或者向上缩放时可以保持最优的速度和精度。我们提出了一种模型缩放方法,它不止是可以修改模型的深度、宽度、分辨率,也可以修改模型的结构。YOLOv4- large把coco刷到了55.4%(FPS=15,Tesla V100)1. Introduction模..原创 2020-12-25 12:56:54 · 1194 阅读 · 0 评论 -
如何调整一个不收敛的神经网络
没错的,又是传送门大概分为以下几点: 1、You Forgot to Normalize Your Data 2、You Forgot to Check your Results 3、You Forgot to Preprocess Your Data 4、You Forgot to use any Regularization 5、You Used a too Large Batc...转载 2018-07-28 01:20:15 · 8924 阅读 · 2 评论 -
DenseNet学习笔记
转载:http://www.yyliu.cn/post/7cabb4ff.html 背景:CVRP2017上,Densely Connected Convolutional Networks获得了CVRP2017最佳论文。摘要: 最近的研究表明,当靠近输入的层和靠近输出的层之间的连接越短,卷积神经网络就可以做的更深,精度更高而且可以更加有效的训练。本论文根据这一结论,提出了DenseNet...原创 2018-08-29 11:30:42 · 1101 阅读 · 0 评论 -
Faster-RCNN_TF源码解读——数据预处理
前些天仔细阅读了Faster-RCNN_TF的源码,获益匪浅,写几篇博客记录一下。第一章:数据预处理 以VOC2007数据集为例,讲述了数据从文件中如何一步步走向神经网络的深渊。1、./experiments/scripts/faster_rcnn_end2end.sh 从README.md中得知,训练此网络需要调用 faster_rcnn_end2end.sh,在该文...原创 2018-07-28 17:12:54 · 1184 阅读 · 0 评论 -
Faster-RCNN_TF源码解读——网络结构
就不从RCNN讲起了… 先上图,原作者链接,感谢! 虽然原作者的程序不是Faster-RCNN_TF,但这个图的意思到了。但是图下面还是会讲Faster-RCNN_TF源码的… 这里是Faster-RCNN_TF的开始 Faster rcnn分为训练部分和测试部分,两个部分的网络有细微的差别,我们从训练部分开始讲。 Faster-RCNN_TF的网络结构部分主要在./lib/netw...原创 2018-07-31 10:41:34 · 1605 阅读 · 2 评论 -
YOLO详解(You Only Look Once)
本文将从五个方面解读CVRP2016目标检测论文YOLO:Unified,Real-Time Object Detection 1.创新 2.网络结构 3.效果 4.改进 5.实践1、创新 改革了区域建议框式检测框架: RCNN系列均需要生成建议框,在建议框上进行分类与回归,但建议框之间有重叠,这会带来很多重复工作。YOLO将全图划分为SXS的格子,每个格子负责中心在该格子的目标检...原创 2018-08-15 10:42:44 · 4770 阅读 · 0 评论 -
【U-Net】语义分割之U-Net详解
1、分割网络现状: 当前有不少好用的分割网络,比如Mask RCNN、DeepLabv3+、COCO-16图像分割冠军FCIS 2、关于分割图像的标记方式 有两种:一种是提供单个物体的掩模(多使用RLE格式);另一种是提供轮廓点。 2、Unet的变形与应用 第一次使用Unet是在Kaggle挑战赛上,它是Kaggle的常客。因为它简单,高效,易懂,容易定制,可以从相对较小的训练集中学习。...原创 2018-09-05 01:04:01 · 37539 阅读 · 10 评论 -
Focal Loss for Dense Object Detection解读与tensorflow实现
1、Motivation在目标检测领域,有两种网络结构:第一种是 one-stage detector第二种是 two-stage detector最开始出现的detector都是two-stage,比如RCNN、Fast RCNN、Faster RCNN的proposal box的思想。one-stage detector的出现稍微晚一些,代表作当属YOLO系列,you only lo...原创 2018-09-19 00:35:19 · 2660 阅读 · 2 评论 -
【Deeplab V3+】tensorflow-deeplab-v3-plus-master源码解读及tf.estimator实践
1、介绍:在此程序中,我初次基础到了tf.estimator,除了官方教程,还有很多优秀的博客可供参考,这里对此模块不再详细介绍。我们接下来所探讨的代码github链接,作者和上一篇文章DeeplabV3的作者相同。虽然DeeplabV3和DeeplabV3+的网络非常相似,但是这次DeeplabV3+的编程风格与之前的DeeplabV3的编程风格完全不同,也许是作者觉得使用一些库会提高速度,...原创 2018-10-07 17:30:39 · 8863 阅读 · 19 评论 -
(Deeplab v3)——tensorflow-deeplab-resnet 原理及代码详解
在GitHub上找到一个不错的代码:https://github.com/DrSleep/tensorflow-deeplab-resnet改代码的baseline是resnet101,使用了空洞卷积前言:代码的model.py,network.py是建立深度学习网络的部分,这部分代码风格与Faster-RCNN_TF那个程序的风格非常相似,也很简单,不再多做介绍。这里主要介绍train.p...原创 2018-10-02 16:11:21 · 5053 阅读 · 5 评论