自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(23)
  • 资源 (1)
  • 收藏
  • 关注

原创 EfficientNet和EfficientDet总结

EfficientDet使用EfficientNet作为backbone,EfficientNet共有9个stage,其中stage2到stage8可以提取特征图,但是EfficientDet使用了stage4到stage8,共5层特征图进行融合。如下图所示,EfficientDet的结构如下,使用了stage4~stage8提取也就是P3到P7提取特征图,下图所示是EfficientDet ...

2019-12-10 15:17:41 5019 6

原创 ASSF源码解读

Learning Spatial Fusion for Single-Shot Object Detectionclass ASFF(nn.Module): def __init__(self, level, rfb=False, vis=False): super(ASFF, self).__init__() self.level = level ...

2019-12-31 16:55:17 2399 5

原创 FCOS中Resize多尺度训练源码解读

FCOS build和transformsclass Resize(object): def __init__(self, min_size, max_size): if not isinstance(min_size, (list, tuple)): min_size = (min_size,) # min_size是一个范围,...

2019-12-30 15:40:43 570 1

原创 word2vec ELMO GPT Bert的继承关系

从word2vec到ELMO到GPT在到Bert从上图可见,Bert 其实和 ELMO 及 GPT 存在千丝万缕的关系,比如如果我们把 GPT 预训练阶段换成双向语言模型,那么就得到了 Bert;而如果我们把 ELMO 的特征抽取器换成 Transformer,那么我们也会得到 Bert。所以你可以看出:Bert 最关键两点,一点是特征抽取器采用 Transformer;第二点是预训练的时候采...

2019-12-27 11:26:57 473

原创 FLOPS、MAdds、MACC指标

FC、Conv等FLOPS计算FLOPS, floating point operations per second. 每秒的浮点运算数。MADD、MACC(multiply-accumulate operations):先乘起来再加起来的运算次数。y = w[0]*x[0] + w[1]*x[1] + w[2]*x[2] + ... + w[n-1]*x[n-1]上面的运算有n次...

2019-12-23 15:44:56 9572

原创 常用3*3卷积

二倍下采样:卷积核33,stride=1same卷积:卷积核33,stride=2

2019-12-16 17:40:14 3365

原创 为什么CNN中的卷积核一般都是奇数*奇数?

为什么CNN中的卷积核一般都是奇数*奇数?

2019-12-16 17:24:33 293

原创 PyTorch分布式训练

单机多卡、多机多卡并行训练

2019-12-13 16:14:21 239

原创 overfeat论文解读

overfeat详解

2019-12-11 11:13:26 241

原创 上采样方法、反卷积、空洞卷积

上采样方法总结unpooling插值:线性插值、双线性插值、临近插值反卷积(转置卷积、空洞卷积):对原始特征图周边padding或者元素之间padding然后在进行卷积。...

2019-12-10 13:34:16 970 1

原创 PyTorch调试dataloader

batch_iterator = iter(val_dataloader)images, targets = next(batch_iterator)

2019-12-08 11:53:47 648

原创 vscode调试使用其他id的GPU

{ "version": "0.2.0", "configurations": [ { "name": "Python: 当前文件", "type": "python", "request": "launch", "program": "${file}", ...

2019-12-06 16:36:23 1538

原创 SSD、RetinaNet、FCOS

SSD具体前向过程

2019-12-06 15:42:30 1527

原创 batch size并不是越大越好

一般设置为2到32,参考论文解释We have presented an empirical study of the performance of mini-batch stochastic gradient descent, and reviewed the underlying theoretical assumptions relating training duration an...

2019-12-05 14:58:17 2318

原创 VScode调试Runtime error报错解决

raise RuntimeError('already started') RuntimeError: already started解决:import multiprocessingmultiprocessing.set_start_method('spawn', True)

2019-12-05 11:02:58 1848

原创 mAP详解

多分类和目标检测中的mAP正负样本划分和区别具体例子以及VOC和COCO中mAP指标判断TP多分类中:对于某一个特定的类别例如猫,按照预测出猫的confidence排序,按照各个样本预测出猫的概率不同,设定不同的threshold,当某一样本预测出为猫的confidence>=threshold为且ground truth是1,那么这一个样本就是TP,否则就是FP或者FN(使条件而定...

2019-12-04 16:55:58 313

原创 Conv2D中groups参数理解

Conv2D中groups参数理解

2019-12-04 13:32:48 2009

原创 Anchor based方法

Anchor-Based-01 目标检测算法设计思想一:anchor是什么

2019-12-04 11:12:48 741

原创 GBDT和XGBoost

GBDTXGBoostCART树线性分类、CART树一阶导数二阶导数无正则项有正则项

2019-12-03 12:18:12 101

原创 PyTorch自定义优化器

简单粗暴的方法直接更新参数: def myopt(): pre=[] #pre储存当前梯度与历史梯度方向是否一致的信息 lr=[] #lr储存各层各参数学习率 vdw=[] #vdw储存各层各参数动量 y_pred = net(x) loss = loss_func(y_pred, y) net...

2019-12-03 10:56:01 3287 1

原创 LeetCode 509. 斐波那契数

Description斐波那契数,通常用 F(n) 表示,形成的序列称为斐波那契数列。该数列由 0 和 1 开始,后面的每一项数字都是前面两项数字的和。也就是:F(0) = 0, F(1) = 1F(N) = F(N - 1) + F(N - 2), 其中 N > 1.给定 N,计算 F(N)。示例 1:输入:2输出:1解释:F(2) = F(1) + F(0) = 1...

2019-12-02 21:42:25 173

原创 Cross Entropy 详解

交叉熵解析交叉熵例子交叉熵PyTorch官方文档

2019-12-02 17:47:29 421

转载 mmdetection常用参数

有关训练模型的具体配置比如backbone选取,anchor参数配置,训练/验证,数据集,optimizer参数,迭代次数等等,都可以在configs/*.py文件中进行配置修改。train.py文件中还包括一些其他输入参数选项:work_dir 是模型checkpoint文件的输出目录,可以在configs/*.py中配置;resume_from 是指定在某个checkpoint的基础上继...

2019-12-02 14:27:57 2048

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除