自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

原创 泰国 其他素材

2019-11-08 12:11:27

阅读数 5

评论数 0

原创 RTR4

TRT的核心 低延迟 高吞吐 吞吐和延迟需要tradeoff:推断(Inference)的batch size要小很多,仍然是latency的问题,因为如果batch size很大,吞吐可以达到很大,比如每秒可以处理1024个batch,500毫秒处理完,吞吐可以达到2048,可以很...

2019-06-28 19:41:21

阅读数 46

评论数 0

原创 [paper reading]Innovations in Graph Representation Learning

1

2019-06-26 10:18:33

阅读数 31

评论数 0

原创 为什么array的读写复杂度是O(1)

核心知识点:数据是存储在内存中的,内存的每一块区域都有特定的地址对应,那么如果我们知道具体的地址,直接可以以O(1)访问该地址对应的存储空间。 解释:对于array,c++在定义的时候需要指定数据type,同时array也是连续内存存储的数据结构。比如我们需要访问第i个元素,那么指针地址为 st...

2019-06-25 07:35:24

阅读数 264

评论数 0

原创 paddle-fuid部署加速方案-引擎

参考网页 参考网页 asd

2019-06-21 10:55:41

阅读数 48

评论数 0

原创 关于warm_up学习率

number batch warm_up_iter warm_up_epoch COCO17 118287 8*8 4000 4000*64/118287=2.16 paiti_v1v2v3 22720 8*8 2.16*22720/64=766 ...

2019-06-11 16:09:21

阅读数 1966

评论数 1

原创 关于fuseBN的操作

Train Phase x是bn输入,mean,var,scale,offset是BN四个参数 (x-mean)/var*scale+offset = x*(scale/var) + [offset-mean*(scale/var)] => x*scale' + offse...

2019-05-31 10:33:25

阅读数 73

评论数 0

原创 精品入门教程record

爬虫系列 爬虫从入门系列 https://foofish.net/understand-http.html

2019-05-24 10:35:54

阅读数 15

评论数 0

原创 fully-connected转conv

fully-connected转conv 具体操作 假设fc输入(h,w,c),fc输出为(fc_out),那么fc的参数shape为(hwc, fc_out)。通过使conv得kernel覆盖fc的输入,即conv的kernel_size = h*w,kernel_num = fc_out,...

2019-05-22 19:52:50

阅读数 21

评论数 0

原创 pt

获取梯度 x = torch.ones(2, 2, requires_grad=True) y = x + 2 z = y * y * 3 out = z.mean() out.backward() print(x.grad) 最底层的x需要grad,所以它的上层自然默认求梯度 ...

2019-03-27 10:56:54

阅读数 21

评论数 0

原创 PIL和opencv

from PIL import Image, ImageEnhance img = Image.open(img_path) img_np=np.array(img).astype('float32') img_np.shape = (HWC) img_np.transpose...

2019-03-26 17:04:29

阅读数 197

评论数 0

原创 关于stop_gradient

paddle有个参数stop_gradient。 结论 对于op里面的参数,使用stop_gradient只影响这个参数本身,即只有这个参数不更新。 对于op的输出,使用stop_gradient,则该点之前的所有层均不再更新。 解释基本想法 设简单的opou...

2019-03-26 14:18:47

阅读数 180

评论数 0

原创 test

| 型号 | CUDA compute capability |TFLOPS|RAM|Release Date|cost| |–|--|

2019-03-08 09:57:18

阅读数 9

评论数 0

原创 【深度思维】读书笔记

系统思维 实例 关于公司裁员控制成本 背景:调查某部们员工25%时间摸鱼,裁掉25%员工,结果导致整个部门崩溃。 系统动力图:+表示两者正相关,-表示负相关。 说白了就是正反馈不断放大,如果是有利的那么就会产生日积跬步至千里的效果;如果是不利的就会导致整个系统的崩溃。 判断系统...

2018-12-04 11:48:55

阅读数 538

评论数 0

翻译 [paper reading] Rethinking ImageNet Pre-training

abstact 从随机初始化训练(from scratch)的det和seg模型与使用pretrained finetune的结果相似。 随机初始化训练模型更加robust pretrained finetune加快了收敛速度,但对提升最终的performance没有约束作用(即没有优化...

2018-11-23 13:43:36

阅读数 91

评论数 0

原创 图像变换

OpenCV中提供的函数 官方文档2D变换1 避免采样误差:In fact, to avoid sampling artifacts, the mapping is done in the reverse order, from destination to the source. In ...

2018-11-22 10:55:19

阅读数 56

评论数 0

原创 换脸

看到一份换脸的code[^1]

2018-11-20 15:13:55

阅读数 468

评论数 0

原创 我该写点什么

随想test test

2018-11-20 14:58:55

阅读数 35

评论数 0

提示
确定要删除当前文章?
取消 删除