自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 pytorch转caffe 踩坑pooling层

maxpooling的计算公式是:h_o = (h_i + 2 * pad - kernal_size) / stride + 1w_o = (w_i + 2 * pad - kernal_size) / stride + 1对于除不尽(输入h_i或卷积核为单数)的情况,pytorch和caffe的处理方式不同,导致最后转出来的结果对不上,出现caffe比pytorch的尺寸大1在pytorch的maxpool中,有ceil_mode的设置ceil_mode: when True, w

2021-01-19 16:20:15 868

原创 WSL上安装docker

其实挺简单的装完wsl之后(我系统是ubuntu 18.04)照着docker的官方教程走没有问题,结果在hello-world的时候报了这个错误,failed to register layer: Error processing tar file(exit status 1): remount /, flags: 0x84000: invalid argument,是docker...

2019-08-29 13:59:53 1455

原创 用opencv踩的坑

最近在写立体匹配的算法0. 一个int是4byte32bit,可以节省好多空间,位操作用<<和>>,而bool其实是long值,在64位系统能到8byte64bit1. 对于所有认为是非负数的值都给上个unsigned,census的时候想用bit操作来计算hamming distance,结果有一个变量存下来是负数,在while(变量){进行bit位移}的时候移到...

2019-08-05 09:18:11 138

原创 多线程与同步锁

培训做的第一个作业,实现几个不同情况下的生产者和消费者。参考了以下这些资料:同步互斥——理发师睡觉问题【操作系统】生产者消费者问题semaphore和mutex的区别伪代码wait & lock (mutex.lock())if/while(border) wait for signal 0/1processunlocknotify 1/0...

2019-07-24 10:28:05 93

原创 卷积网络小细节

【1】全连接层换成卷积好处:全连接层使得输入维度固定,替换成卷积可以输入任意大小的数据,适合检测分割等任务。第一个全连接层的输入是7*7*512, 输出是4096. 这可以用一个卷积核大小7*7, 步长(stride)为1, 没有填补(padding), 输出通道数4096的卷积层等效表示, 其输出为1*1*4096, 和全连接层等价. 后续的全连接层可以用1x1卷积等效替代.【2】incepti...

2018-04-24 10:29:39 354

原创 YOLO系列 顺便写点inception的东西 感觉不错

过两天打算讲YOLO系列,现在这里挖个坑,关于这方面的详解其实网上挺多的,主要应该是看别人的博客吧,看完再回去看论文YOLO v1:什么都不说,先上网络结构不得不吐槽这图有一半被挡住了但是是原论文就这样了,还是觉得Joseph太随意了这个结构与rcnn系列的结构最大的不同就是end-to-end,而rcnn需要一个selective search,就算到了faster网络也是rpn和fast两个网...

2018-04-23 15:56:56 1384

原创 今日份的DL碰壁记录

【4.22】把一个在caffe上的project转移到pytorch第一次转模型,想着把训练好的caffemodel参数全转成pytorch的pth,最后终于搞定了1)caffe的Batchnorm层的参数和pytorch的不一样,caffe有三个参数,前两个除以第三个对应pytorch的running_mean和running_var(均值和协方差);Batchnorm的训练和测试使用的mean...

2018-04-23 15:54:10 178

原创 Loss Function的修改启发

对于Multi-Box的交叉熵损失函数(cross-entropy loss function)为下:tk为训练集标签{0,1},ck为预测的分数[0,1],对于标签缺失的数据集,tk=0,ck=1,损失函数的得到数值比较大,因此缺失标签影响网络的训练。减少缺失标签问题的影响,修改损失函数为:使用β并在tk项中添加 (1-β)ck 减少预测分数ck为1时的惩罚,这样

2017-09-01 16:38:24 1004

转载 欢迎使用CSDN-markdown编辑器

欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I 引用 Ctrl

2017-09-01 15:57:20 147

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除