自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 图像分割(1)--- FCN

一. 论文Fully Convolutional Networks for Semantic Segmentation官方github二. 论文概述上采样(in-network upsampling),反置卷积。该卷积层在训练过程中不学习,因为作者发现学不学习对性能提升不大。作者用了crop来配合deconvolution层,因为反卷积后出来的heatmap的大小与原来的...

2018-08-23 23:22:44 330

原创 Faster rcnn(1)--- RPN原理及代码详解

一. 论文 Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks官方版本github : detectronpytorch版本faster rcnn二. RPN提出的目的用cnn来提取proposal,替代原始的slective search;由于原始的selecti...

2018-08-22 00:35:39 2246

原创 DCGAN论文阅读笔记

一.论文链接DCGANcarpedm20/DCGAN-tensorflow二.论文概要提出了基于卷积拓扑网络的DCAGN,并且分析验证了卷积GAN的一些限制将训练好的解码器用于分类,能达到挺好的效果可视化GAN的一些层三.论文细节1) CNN的三个演进generator中使用反卷积来上采样,discriminator中使用strided卷积来替代...

2018-08-20 23:55:57 975

原创 使用GAN来进行CV数据增强(一)

一.论文Unlabeled Samples Generated by GAN Improve the Person Re-identification Baseline in vitro论文代码:layumi/Person-reID_GAN 二.论文概述使用原始数据训练DCGAN,然后根据得到的模型产生新的数据作为扩充数据用于训练设计LSRO(label smoothing...

2018-08-18 22:44:15 10032 1

原创 针对目标检测的数据增强

前言图像的目标增强普遍的包含旋转,平移,镜像等等,比较新的包括cutout等,其实也是一种连续的dropout图像的增强在我的理解是一种正则,增强模型的泛化能力。从原始图像中得到新的数据在信息论角度还是不太可能。目标检测的图像增强跟普通的图像增强不同的地方是还得考虑bounding box如何进行相应的变化增强方式(持续更新)裁剪(会改变boundingbox): 普通的...

2018-08-18 00:13:57 2136 1

原创 focal loss论文笔记(附基于keras的多类别focal loss代码)

一.focal loss论文Focal Loss for Dense Object Detection二.focal loss提出的目的解决one-stage目标检测是场景下前景和背景极度不平衡的情况(1:1000)让模型在训练的时候更加关注hard examples(前景)。另外two-stage的检测器是用一下两个方法来解决类别不平衡问题的: 提取候选框的过程实际上...

2018-08-18 00:13:35 5595 2

原创 dropout原理及代码解析

一.dropout概念在训练的时候,以一定的概率使得某些神经元从网络中丢弃二.dropout原理解释1.从ensemble的角度理解由于每个epoch前向的时候都是以一定概率随机的丢弃某些神经元,所以每个epoch训练的时候其实是在训练不同的网络,类似bagging。2.从不同动机的角度来理解类比有性繁殖和无性繁殖,无性繁殖直接从父代保留大段的优秀...

2018-08-18 00:12:58 2113

原创 Batch Normalization论文阅读笔记

BN论文Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate ShiftBN优势加速训练收敛缓解梯度弥散BN由来什么是Internal Covariate Shift : 在训练过程中,隐层的输入分布老是变来变去,这就是所谓的“Intern...

2018-08-18 00:12:12 436

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除