自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(32)
  • 资源 (1)
  • 收藏
  • 关注

转载 图像分割 | SegNet

参考:https://blog.csdn.net/fate_fjh/article/details/53467948Introduction自己制作国内高速公路label,使用SegNet训练高速公路模型,测试效果 参考:http://mi.eng.cam.ac.uk/projects/segnet/tutorial.html SegNet是Cambridge提出旨在解决自动驾驶或者...

2018-07-31 17:27:24 3314

转载 语义分割 | FCN, SegNet, DeconvNet, DeepLab, ENet, GCN 综述(2)

感谢:https://blog.csdn.net/antkillerfarm/article/details/79524417Grab cutGrab cut是微软剑桥研究院于2004年提出的著名交互式图像语义分割方法。与N-cut一样,grab cut同样也是基于图划分,不过grab cut是其改进版本,可以看作迭代式的语义分割算法。Grab cut利用了图像中的纹理(颜色)信息和边界(...

2018-07-31 17:12:14 1977

转载 语义分割 | FRRN

FRRNFull-Resolution Residual Networks for Semantic Segmentation in Street Scenes收录:CVPR2017(IEEE Conference on Computer Vision and Pattern Recognition)原文地址:FRRN代码:官方:Theano TensorFlowAbstr...

2018-07-30 16:51:19 3480

转载 C++中类的实例化的两种方法

1、首先定义一个类class Coordinate{public: int m_iX; int m_iY;};2.实例化一个类的对象void main(){ Coordinate coord[3]; //栈上 coord[1].m_iX=10; //在堆中初始化一个实例 Coordinate *p=new Coordinate[3]; //堆中...

2018-07-29 11:45:55 27967

转载 图像分割 | 训练集输入labe(mask)处理以及类别不均衡的处理-以segnet为例

Tags: ComputerVision编译src/caffe/layers/contrastive_loss_layer.cpp:56:30: error: no matching function for call to ‘max(double, float)’ Dtype dist = std::max(margin - sqrt(dist_sq_.cpu_data()[i]), ...

2018-07-27 10:12:39 6514 3

原创 binary tree | 重建二叉树

一、题目:105. Construct Binary Tree from Preorder and Inorder Traversal Given preorder and inorder traversal of a tree, construct the binary tree.Note:You may assume that duplicates do not exis...

2018-07-20 00:55:41 198

原创 binary tree | 二叉树基本操作(2)最低公共祖先问题、平衡二叉树

一、题目:236. Lowest Common Ancestor of a Binary TreeDescriptionHintsSubmissionsDiscussSolutionPick OneGiven a binary tree, find the lowest common ancestor (LCA) of two given nodes in the tree....

2018-07-20 00:52:49 213

原创 binary tree | 二叉树基本操作(1)

一、题目:655. Print Binary Tree Print a binary tree in an m*n 2D string array following these rules:The row number m should be equal to the height of the given binary tree. The column number n ...

2018-07-20 00:48:08 444

原创 binary tree | 层次遍历相关

一、层次遍历题目:102. Binary Tree Level Order TraversalGiven a binary tree, return the level order traversal of its nodes' values. (ie, from left to right, level by level).For example:Given binary tr...

2018-07-20 00:39:22 241

原创 binary tree | 前序中序后序遍历

一、前序遍历题目:144. Binary Tree Preorder TraversalGiven a binary tree, return the preorder traversal of its nodes' values.Example:Input: [1,null,2,3] 1 \ 2 / 3Output: [1,2,3]...

2018-07-20 00:31:04 304

转载 图像分割 | U-Net 实例

代码见Github:mattzheng/U-Net-DemoU-Net是Kaggle比赛非常青睐的模型,简单、高效、易懂,容易定制,可以从相对较小的训练集中学习。来看几个变形: (1)Supervise.ly 公司。  在用 Faster-RCNN(基于 NasNet)定位 + UNet-like 架构的分割,来做他们数据众包图像分割方向的主动学习,当时没有使用 Mask-RCNN...

2018-07-19 17:23:50 12615

原创 leetcode 403. Frog Jump(hard)

 一、题目A frog is crossing a river. The river is divided into x units and at each unit there may or may not exist a stone. The frog can jump on a stone, but it must not jump into the water.Given a li...

2018-07-19 11:04:23 243

转载 Batch Normalization详解

      Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好,别忘了DL从Hinton对深层网络做Pre-Train开始就是一个经验领先于理论分析的偏经验的一门学问。本文是对论文《Batch Normalization: Accelerating Deep Network Train...

2018-07-18 16:31:10 451

转载 人体关键点检测 | 综述(1)

--  Background专业术语:multi-person pose estimation多人姿态估计的两种研究方法——自顶向下(top-down):先检测出多个人,再对每一个人进行姿态估计(先检测单个人,再针对单个人做single-person pose estimation。),可以将人体detection的方法加上单人姿态估计方法来实现。优点:思路直观,自然,被绝大部...

2018-07-18 10:22:30 20659

转载 YOLO算法讲解(2)

YOLO有S*S的格子,每个格子包含B个边界框,格子对应的预测总的类别数为C种类别。总结重点:1、一张图片中有多个object,即一张图片中有多个对象,如下图所示,我们框了很多的真实框,那么S*S*B个bbox的对应的confidence怎么计算出来呢?confidence=p(object)*IOU(truth,pred),那么p(object)和IOU(truth,pred)怎么求解呢?看了一...

2018-07-16 11:46:52 2615

转载 语义分割 |semantic segmentation 常用神经网络介绍对比-FCN SegNet U-net DeconvNet

本博文转自:https://blog.csdn.net/u012931582/article/details/70314859,感谢zhixuhao.前言在这里,先介绍几个概念,也是图像处理当中的最常见任务.语义分割(semantic segmentation)目标检测(object detection)目标识别(object recognition)实例分割(instance segmentat...

2018-07-13 09:53:25 473

转载 图像分割 | FCN网络

         本来这一篇是想写Faster-RCNN的,但是Faster-RCNN中使用了RPN(Region Proposal Network)替代Selective Search等产生候选区域的方法。RPN是一种全卷积网络,所以为了透彻理解这个网络,首先学习一下FCN(fully convolutional networks)Fully Convolutional Networks for...

2018-07-12 17:03:13 3184

原创 caffe | 添加新的层(详细过程)

一、整体流程      针对caffe添加新的层,网上有许多教程,这里我们举一例子,假设我想实现如下功能:将一个wxhxc的特征图reshape成(w/sample_step) x (h/smple_step) x (c*sample_step*sample_step),也就是实现简单的每隔sample_step点下采,然后把所有的通道再拼起来,即channel的维度提高sample_step*s...

2018-07-12 16:52:21 8160 1

转载 图像分割 | U-Net

kaggle上的常客(医学图像领域比较常用,也是car分割的冠军模型): https://www.kaggle.com/c/data-science-bowl-2018/discussion/54426 U-Net: Convolutional Networks for Biomedical Image SegmentationVALID padding not SAME padding(因为边界...

2018-07-11 20:07:14 1470

转载 Depthwise Separable convlution | 举例详细解释

      下图就是depthwise separable convolution的示意图,其实就是将传统的卷积操作分成两步,假设原来是3*3的卷积,那么depthwise separable convolution就是先用M个3*3卷积核一对一卷积输入的M个feature map,不求和,生成M个结果;然后用N个1*1的卷积核正常卷积前面生成的M个结果,求和,最后生成N个结果。因此文章中将dep...

2018-07-11 12:02:50 16517 9

转载 深度学习网络 | Xception (含与mobilenet depthwise seperable conv比较)

论文:Xception: Deep Learning with Depthwise Separable Convolutions 论文链接:https://arxiv.org/abs/1610.02357--------------------------------------------------------------------------------------------------...

2018-07-11 10:37:43 1608

转载 mAP precision recall

Precision and Recall       在模型评估时,我们往往会参照一些性能指标,最基本的如准确率和召回率。看过西瓜书的同学应该对下面这张表格很熟悉:  predicted:P predicted:Factual:P TP FNactual:N FP TN       这张表其实很好记忆,横着看(actual:P和actual:N)代表实际所属的类别;竖着看(predic...

2018-07-11 09:43:29 244

转载 图像目标检测 | RFCN 论文解析(1)

目录作者及相关链接方法概括方法细节实验结果总结参考文献  作者及相关链接作者:作者链接:代季峰,何恺明,孙剑论文链接:论文传送门代码链接:matlab版,python版方法概括R-FCN解决问题——目标检测整个R-FCN的结构一个base的conv网络如ResNet101, 一个RPN(Faster RCNN来的),一个position sensitive的prediction层,最后的ROI p...

2018-07-07 10:50:30 1341

转载 caffe | caffe中的batchNorm层

链接: http://blog.csdn.net/wfei101/article/details/78449680caffe 中为什么bn层要和scale层一起使用这个问题首先你要理解batchnormal是做什么的。它其实做了两件事。1) 输入归一化 x_norm = (x-u)/std, 其中u和std是个累计计算的均值和方差。2)y=alpha×x_norm + beta,对归一化后的x进行...

2018-07-05 11:04:33 320

转载 SSD论文解析(1)

回到顶部一. 算法概述本文提出的SSD算法是一种直接预测目标类别和bounding box的多目标检测算法。与faster rcnn相比,该算法没有生成 proposal 的过程,这就极大提高了检测速度。针对不同大小的目标检测,传统的做法是先将图像转换成不同大小(图像金字塔),然后分别检测,最后将结果综合起来(NMS)。而SSD算法则利用不同卷积层的 feature map 进行综合也能达到同样的...

2018-07-05 09:08:25 3257

转载 caffe | 利用训练好的caffemodel进行测试

这是一个python脚本,用训练好的caffemodel来测试图片,接下来直接上代码,里面有详细解释,大部分你要修改的只是路径,另外在这个脚本的基础上你可以根据自己的需要进行改动。需要的东西:训练好的caffemodel,deploy.prototxt(可以从你的train.prototxt修改得到),可以用的caffe,待测试的图像(比如jpg)import syscaffe_root='/y...

2018-07-04 11:29:40 2309

转载 深度学习压缩模型 | 方法综述(3)

前言在前两章,我们介绍了一些在已有的深度学习模型的基础上,直接对其进行压缩的方法,包括核的稀疏化,和模型的裁剪两个方面的内容,其中核的稀疏化可能需要一些稀疏计算库的支持,其加速的效果可能受到带宽、稀疏度等很多因素的制约;而模型的裁剪方法则比较简单明了,直接在原有的模型上剔除掉不重要的filter,虽然这种压缩方式比较粗糙,但是神经网络的自适应能力很强,加上大的模型往往冗余比较多,将一些参数剔除之后...

2018-07-03 14:08:19 511

转载 深度学习模型压缩 | 方法综述(2)

前言上一章,将基于核的稀疏化方法的模型压缩方法进行了介绍,提出了几篇值得大家去学习的论文,本章,将继续对深度学习模型压缩方法进行介绍,主要介绍的方向为基于模型裁剪的方法,由于本人主要研究的为这个方向,故本次推荐的论文数量较多,但都是非常值得一读的。基于模型裁剪的方法对以训练好的模型进行裁剪的方法,是目前模型压缩中使用最多的方法,通常是寻找一种有效的评判手段,来判断参数的重要性,将不重要的conne...

2018-07-03 14:06:18 1019

转载 深度学习模型压缩 | 方法综述(1)

前言目前在深度学习领域分类两个派别,一派为学院派,研究强大、复杂的模型网络和实验方法,为了追求更高的性能;另一派为工程派,旨在将算法更稳定、高效的落地在硬件平台上,效率是其追求的目标。复杂的模型固然具有更好的性能,但是高额的存储空间、计算资源消耗是使其难以有效的应用在各硬件平台上的重要原因。最近正好在关注有关深度学习模型压缩的方法,发现目前已有越来越多关于模型压缩方法的研究,从理论研究到平台实现,...

2018-07-03 14:04:49 709

转载 深度学习网络 | yolo v1论文讲解(1)

You Only Look Once: Unified, Real-Time Object DetectionAbstract作者提出了一种新的物体检测方法YOLO。YOLO之前的物体检测方法主要是通过region proposal产生大量的可能包含待检测物体的 potential bounding box,再用分类器去判断每个 bounding box里是否包含有物体,以及物体所属类别的 pro...

2018-07-03 13:53:02 779

转载 模型压缩 | Deep Compression论文理解及Caffe源码修改(2)

背景传统的CNN网络训练完之后,全连接层的权值矩阵动辄就几十万、几百万个参数值,可见CNN模型的庞大,但是仔细观察CNN的权值矩阵就会发现,里面有很多的参数的绝对值都很小,比如在-0.001到0.001之间,也就是说这些连接对CNN的训练或者测试结果作用很小,因此我们就可以尝试将这些小值参数去掉,既可以减小模型的规模又可以减少计算量,最重要的前提是要保证CNN的有效性,也即正确率。主要思路修改bl...

2018-07-02 12:47:38 1331 1

转载 模型压缩 | Deep Compression论文理解及Caffe源码修改(1)

1.在.cu中目前仍然是调用cpu_data接口,所以可能会增加与gpu数据交换的额外耗时,这个不影响使用,后面慢慢优化。~(已解决) 2.目前每层权值修剪的比例仍然是预设的,这个比例需要迭代试验以实现在尽可能压缩权值的同时保证精度。所以如何自动化选取阈值就成为了后面一个继续深入的课题。 3.直接用caffe跑出来的模型依然是原始大小,因为模型依然是.caffemodel类型,虽然大部分权值为...

2018-07-02 12:40:42 1739

C 语言 绩点计算软件

C程序代码 绩点计算的输入与输出 源程序代码 亲写 可靠有效

2015-05-18

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除