自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 收藏
  • 关注

原创 tensorflow 中遇到的问题总结

tensorflow 中遇到的问题总结 1.TFRecordReader "OutOfRangeError (see above for traceback): RandomShuffleQueue '_1_shuffle_batch/random_shuffle_queue' is closed and has insufficient elements (requested 1, cu...

2018-07-27 14:45:19 898

原创 Dtection:PVA-net

摘要:这是一个轻量级的detection模型,基于faster RCNN框架改进,主要重新设计了feature extraction部分(因为其他RPN分计算量不大、ROI classification部分的全连接层可以用svd方法改进),设计总体原则是“less channels with more layers”。

2017-06-24 11:30:51 794

转载 R-FCN resnet50 训练自己的数据

原文链接:http://blog.csdn.net/sinat_30071459/article/details/53202977说明:本文假设你已经做好数据集,格式和VOC2007一致,并且Linux系统已经配置好caffe所需环境(博客里教程很多),下面是训练的一些修改。py-R-FCN源码下载地址:https://github.com/

2017-06-22 14:22:40 5087 1

转载 faster rcnn配置问题

1、出现问题:训练faster rcnn时出现如下报错:File "/py-faster-rcnn/tools/../lib/datasets/imdb.py", line 108, in append_flipped_images assert (boxes[:, 2] >= boxes[:, 0]).all()AssertionError2、问题分析:检查自己数据发现,左

2017-06-22 11:05:11 650

原创 faster rcnn代码阅读

1.rpn-data layer主要作用是对每个anchor生成label,targets(gt_boxes坐标),bbox_inside_weights,bbox_outside_weights四个信息。这个层的输入有3个,(1)经过3*3加1*1卷积后的feature map(rpn_cls_score),没怎么用到只用了feature map的长宽信息;(2)gt_boxes里面存放

2017-06-21 17:27:30 1463

转载 五个案例,三大心得,深度学习的实践应用之路

原文链接:http://geek.csdn.net/news/detail/202622这篇文章对深度学习在工程级别应用上遇到的问题进行了很好地总结,并且提出一些有建设性的解决方案,很有实际意义。当我们需要用深度学习处理现实问题时,除了相关的技术和数据,你还需要掌握一系列的小诀窍,并将这些技巧用在级联模型、智能增强、合理的评价标准、建立可重用的训练管道、有效推断与减

2017-06-19 16:38:37 17239

转载 Common causes of nans during training

原文  https://stackoverflow.com/questions/33962226/common-causes-of-nans-during-trainingGood question.I came across this phenomenon several times. Here are my observations:Gradient blo

2017-05-24 10:02:12 537

原创 训练网络的一些trick(1):pre_train与逐层拷贝网络

最近做detection方面的工作,在实际训练方面做了一些尝试,这一篇主要记录对于网络pre_train的理解。首先说pre_train,目前几乎所有做detection的网络都会用到这个技巧,相比于ImageNet数据集里张百万甚至千万的图片量,detection数据集几万张的图片量实在有些少(Pascal VOC、COCO),单纯用这些图片去训练一个比较深的随机初始化的cnn然后得

2017-05-18 17:39:30 1817 1

转载 Detection:pvanet训练自己数据

pvanet训练自己数据

2017-05-18 16:17:25 2355 4

转载 Recall, Precision, and Average Precision

原文出处:http://blog.csdn.net/pkueecser/article/details/8229166在信息检索、分类体系中,有一系列的指标,搞清楚这些指标对于评价检索和分类性能非常重要,因此最近根据网友的博客做了一个汇总。准确率、召回率、F1信息检索、分类、识别、翻译等领域两个最基本指标是召回率(Recall Rate)和准确率(Precisi

2017-05-15 11:56:38 900

原创 Detection:faster rcnn

从ssd看过来。fast rcnn主要解决了proposal之间的特征共享,原先selective search在图像上产生的2000个proposal要分别输入分类网络里过一遍,不可避免的产生了巨大计算资源浪费。在fast rcnn中利用reception field,先将整个图片过网络,得到fm后不同proposal对应到fm上就得到各自的特征。这样计算瓶颈就到了selective sea

2017-05-09 16:46:30 550

原创 Detection:SSD(single shot multibox detecter)

ssd这篇感觉很工程,主要的工作我觉得有两个:1.从多层fm上提取bbox,相当于一个multi scale的操作。值得注意的是,首先越靠近bottom越底层的fm在细节表达上做得越好,高层的fm会学习出分类这种概括性的表达,原文中加上最高层的bbox甚至会比去掉这一层效果更差(当然可能是噪声);其次在fm上的bbox并不是严格去对应原图上的reception filed(再加上后面data

2017-04-24 11:48:27 758

转载 c语言编译链接

转载,原文出处 http://7905648.blog.51cto.com/7895648/1297255学过C语言的人都应该知道,我们所编辑的C语言程序是不能直接放到机器上运行的,它只不过是一个带".c"后缀的文件(也称为源代码)而已,需要经过一定的处理才能转换成机器上可运行的可执行文件。我们将对C语言的这种处理过程称为编译与链接。编译就是把文本形式源代码

2017-04-06 16:53:04 433

转载 查找(一):BST、AVL、红黑树

查找(一)我们使用符号表这个词来描述一张抽象的表格,我们会将信息(值)存储在其中,然后按照指定的键来搜索并获取这些信息。键和值的具体意义取决于不同的应用。符号表中可能会保存很多键和很多信息,因此实现一张高效的符号表也是一项很有挑战性的任务。我们会用三种经典的数据类型来实现高效的符号表:二叉查找数、红黑树、散列表。二分查找

2016-10-14 16:53:02 412

转载 拉格朗日乘子法和KKT条件

这是目前看到介绍最清楚的一篇了原文来自:博客园(华夏35度)http://www.cnblogs.com/zhangchaoyang 作者:Orisun拉格朗日乘子法(Lagrange Multiplier)和KKT(Karush-Kuhn-Tucker)条件是求解约束优化问题的重要方法,在有等式约束时使用拉格朗日乘子法,在有不等约束时使用KKT条件。前提是:只有当目标函数

2016-10-08 12:09:17 872

原创 五个常用算法(二):分治法

1.汉诺塔问题汉诺塔问题的由来:一位法国数学家曾编写过一个印度的古老传说:在世界中心贝拿勒斯(在印度北部)的圣庙里,一块黄铜板上插着三根宝石针。印度教的主神梵天在创造世界的时候,在其中一根针上从下到上地穿好了由大到小的64片金片,这就是所谓的汉诺塔。不论白天黑夜,总有一个僧侣在按照下面的法则移动这些金片:一次只移动一片,不管在哪根针上,小片必须在大片上面。僧侣们预言,当所有的金片都从梵天穿好的

2016-10-05 21:13:08 909

原创 机器学习常用算法(3)逻辑回归

先上图注:1.参数估计用的是极大似然不是均方误差(用均方误差的是最小二乘)2.w是带有bias项的

2016-10-05 09:27:25 423

原创 五个常用算法(一):动态规划

1.从01背包问题说起有一堆宝石一共n个,现在你身上能装宝石的就只有一个背包,背包的容量为C。把n个宝石排成一排并编上号: 0,1,2,…,n-1。第i个宝石对应的体积和价值分别为V[i]和W[i] 。背包总共也就只能装下体积为C的东西,那你要装下哪些宝石才能获得最大的利益呢?我们先来看下在这个问题里,动态规划最重要的两个概念:状态和状态转移方程。假如现在有

2016-10-03 17:22:29 9882 2

转载 Bounding box regression详解

原文地址:http://blog.csdn.net/u011534057/article/details/51235964Reference link:http://caffecn.cn/?/question/160Question:我只知道,输入检测到的box,回归的是检测到box中心点,以及box长和宽到标记的box的映射。看过rcnn的

2016-09-24 16:46:06 2010

转载 【算法】深度优先搜索

转载出处:rapheal@iteye:http://rapheal.iteye.comhttp://rapheal.iteye.com/blog/1526861作者:raphealguo(at)qq.com1.前言深度优先搜索(缩写DFS)有点类似广度优先搜索,也是对一个连通图进行遍历的算法。它的思想是从一个顶点V0开始,沿着一条路一直走到底,如果发现不能到达目

2016-09-06 15:30:25 1061

转载 【算法】广度优先搜索

转载出处:rapheal@iteye:http://rapheal.iteye.comhttp://rapheal.iteye.com/blog/1526861作者:raphealguo(at)qq.com1.前言广度优先搜索(也称宽度优先搜索,缩写BFS,以下采用广度来描述)是连通图的一种遍历策略。因为它的思想是从一个顶点V0开始,辐射状地优先遍历其周围较广的区域,故

2016-09-06 10:47:27 2483

原创 CNN中pooling层的作用

1.引入了位移不变性,更关注是否存在某些特征而不是特征具体的位置。比如最常见的max pooling,因为取一片区域的最大值,所以这个最大值在该区域内无论在哪,max-pooling之后都是它,相当于对微小位移的不变性。2.减小下一层输入大小,减小计算量和参数个数,这个作用是最直观的了。3. 获得定长输出。改变输出的维度。4. 防止过拟合或有可能会带来欠

2016-09-03 14:23:43 5542

原创 机器学习常用算法(2)朴素贝叶斯

上图

2016-08-30 12:09:18 647

原创 caffe代码阅读:layer类和net类

这两个类是caffe框架的基石,从名字上就看得出来,深度学习就是围绕这两个东西展开的,还是从代码去看具体实现。1.layerlayer类有五大种类,每个种类里又有详细按作用区分,但全是从一个基类Layer继承过来,下面是具体的五类Data LayersCommon LayersActivation / Neuron LayersLoss Layers

2016-08-22 10:26:24 606

原创 机器学习常用算法(1)最小二乘和k-means聚类

最近复习算法准备校招,顺便写一写算作补上以前欠的债。1.最小二乘法有一堆数据点(Xi,Yi),其中i从0到n,那么我现在用一个超平面去拟合这些数据点,这个超平面的方程形式?whatever,在最小二乘里这不是重点,你可以是线性也可以是非线性,方程就记作y=f(x),其中有参数Bi,假设有k个。好我们的环境已经配好了,然后是方法的应用。这个方法是一个参数估计方法,损失

2016-08-21 16:28:09 3095

原创 caffe代码阅读:SyncedMemory和Blob

1.SyncedMemory这个类SyncedMemory的作用是数据存储,在CPU和GPU上各有一块内存空间(大小为size_)。   enum SyncedHead {    UNINITIALIZED,    HEAD_AT_CPU,    HEAD_AT_GPU,    SYNCED  };//用来表示内存分配状态,未分配、CPU已分配、GPU已分配、两

2016-08-16 10:08:08 357

原创 slurm随笔

资源分配节点状态(scontrol show node ..)UNKNOWN  未知ALLOCATED 已分配DOWN 故障IDLE 空闲DRAIN 不再分配COMPLETING 有作业完成,正在退出NO_RESPOND 无响应分区状态UP/DOWN作业状态PENDING 排队 PDRUNNING 运行 RSUSPENDE

2016-06-29 20:43:06 3957

原创 CentOS 7.1 编译opencv3.1+ffmpeg

项目需要在服务器上带ffmpeg编译opencv 3.1,之前只在windows上用过opencv,编译过一次痛苦的很,所以这次做好了充分心理准备。编译ffmpeg1.首先去下载源码,放在/ffmpeg目录下2.修改config,因为没sudo权限,所以默认安装路径要改,编译opencv要调用动态库,所以要加shared项(很坑啊第一次没加重新编的)./configure

2016-06-29 18:23:45 4459 3

转载 slurm入门

什么是超级计算机?超级计算机不是关于任何特定的架构,它只是处在计算性能尖端的一种设计。如今,这意味着如果以 LINPACK 基准度量,该系统能够在千万亿次(或百万之四次方的 FLOPS)的性能范围内运行。无论超级计算机如何实现这些 FLOPS,任何超级计算机架构的一个低层目标都是在有工作可做时最佳地保持计算资源忙碌。与 CDC 6600 用来保持其单个 CPC 忙碌的外围处理器

2016-06-23 11:21:20 59055 2

原创 network in network

首先文章作者把传统CNN网络看成一个广义的线性模型GLM(generalized linear model)后面跟一个非线性激活函数(现在多用ReLU),而假设特征能够被GLM抽象即线性可分,那么对它的抽象程度是不够的(level of abstraction is low),或者说我们要假设特征是线性可分的(这是个强假设)。如果我们用一个非线性的模型代替GLM,无疑会提高整个模型对特征的抽象程度

2016-06-12 20:45:51 608

原创 Going Deeper with Convolutions

googlenet提出最重要的一个概念就是inception,起源于network in network,在这里有两种理解方式,1.inception module结构的一种新的组织形式(a new level of organization in the form of the “Inception module”);2.直接解释为网络深度。为了加深网络深度,NIN中用了1*1con

2016-06-06 20:35:22 638

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除