自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 资源 (7)
  • 收藏
  • 关注

翻译 BN算法

2015年的论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》阐述了BN算法,这个算法目前已经被大量应用,很多论文都会引用这个算法,进行网络训练,可见其强大之处非同一般。在深度学习中,随机梯度下降已经成为主要的训练方法。尽管随机梯度下降法对于训练深度网络

2017-10-31 16:09:10 10239

翻译 CNN中1×1的卷积核的作用

1×1卷积核最早引起人们的重视是在NIN《Min Lin, Qiang Chen, and Shuicheng Yan. Network in network. CoRR, abs/1312.4400, 2013》结构中,后来在GoogLeNet的Inception结构中用于降维。1×1卷积核用于升维、降维如果卷积的输入、输出都仅有一个平面,那么1×1卷积核并没有啥意义。它完全不考虑像

2017-10-31 12:04:02 7904

翻译 GoogLeNet

GoogLeNet最早出现在2014年的《Going deeper with convolutions》,之所以叫GoogLeNet,而不是GoogleNet,文章说是为了向早期的LeNet致敬。GoogLeNet是谷歌团队为了参加ILSVRC 2014(ImageNet Large Scale Visual Recognition Challenge)比赛而精心准备的。GoogLeNet,在

2017-10-30 17:50:50 11239 3

原创 OpenCV3.3 DNN简介

如今,在机器视觉领域,深度学习已经是最流行且增长最快的一个方向了。OpenCV自3.1版本其就在contrib中加入了DNN模块。到3.3版本时,将DNN模块由contrib提升到了正式代码块中。在住仓库中的位置为:https://github.com/opencv/opencv/tree/master/modules/dnn。同时相较于3.1版本,3.3版本对DNN做了很大改进!该DNN模块

2017-10-26 18:30:46 8716

原创 gamma校正(基于OpenCV)

Gamma校正是对输入图像灰度值进行的非线性操作,使输出图像灰度值与输入图像灰度值呈指数关系。指数γ即为Gamma经过Gamma校正后的输入和输出图像灰度值关系如下图所示:横坐标是输入灰度值,纵坐标是输出灰度值,蓝色曲线是gamma值小于1时的输入输出关系,红色曲线是gamma值大于1时的输入输出关系。可以观察到,当gamma值小于1时(蓝色曲线),图像的整体亮

2017-10-25 18:39:10 2662

原创 图像处理中卷积的实现(TensorFlow和OpenCV)

一、用C解释原理假设图像(宽6高4),一个卷积核(宽3高3),如下:unsigned char src[24] ={ 1,2,3,4,5,6, 1,1,1,1,1,1, 2,1,2,1,2,1, 4,5,6,1,2,3};float kernel[9] = { -1., 0., 1., -2., 0., 2., -3., 0., 3

2017-10-24 10:30:07 2372

原创 积分图快速计算

积分图是图像中十分常用的方法,最初是在计算Haar特征值时的快速计算方法,后来在均值滤波,二值化等图像处理方法中也十分常见。积分图的计算原理:C++代码(亲测通过):/******************************************* 快速计算积分图* Integral(i,j) = Integral(i,j-1) + Integral(i-1,j) - I

2017-10-23 19:17:25 1940

翻译 图像增强:LLNet: A Deep Autoencoder approach to Natural Low-light Image Enhancement介绍

LLNet: A Deep Autoencoder approach to Natural Low-light Image Enhancement(利用深度自编码器对低照度图像进行增强)一、自编码器网络结构二、训练过程三、试验结果Comparison of methods of enhancing ‘Town’ when applied to

2017-10-20 19:12:55 8446 4

翻译 图像的峰值信噪比(peak signal to noise ratio, PSNR)

峰值信噪比(PSNR)是一个表示信号最大可能功率和影响它的表示精度的破坏性噪声功率的比值的工程术语。由于许多信号都有非常宽的动态范围,峰值信噪比常用对数分贝单位来表示。在图像处理中,要对图像进行客观的评价,常常需要计算PSNR。PSNR是衡量图像失真或是噪声水平的客观标准。2个图像之间PSNR值越大,则越相似。普遍基准为30dB,30dB以下的图像劣化较为明显。PSNR定义:其

2017-10-20 18:51:30 21138

翻译 图像自动去暗角算法

暗角图像是一种在现实中较为常见的图像,其主要特征就是在图像四个角有较为显著的亮度下降,比如下面两幅图:在2014年Y.Zheng等人的《Single image vignetting correction》以及同样有他们撰写的论文《Single image vignetting correction using radial gradient symmetry》有讲这方面的算法,不过其

2017-10-20 16:04:00 3262 1

翻译 矩阵迹运算

矩阵(方阵)迹运算返回的是矩阵对角元素的和:迹运算因为很多原因而有用。若使用求和符号,有些矩阵运算很难描述,而通过矩阵乘法和迹运算符号,可以清楚地表示。例如矩阵F-范数(Frobenius norm):迹运算性质1:设方阵A,有迹运算性质2:多个矩阵相乘得到的方阵的迹,和将这些矩阵中的最后一个挪到最前面之后相乘的迹是相同的。当然,我们需要考虑挪动

2017-10-20 10:18:36 25427 1

翻译 万能近似定理(universal approximation theorrm)

神经网络的架构(architecture)指网络的整体结构。大多数神经网络被组织成称为层的单元组,然后将这些层布置成链式结构,其中每一层都是前一层的函数。在这种结构中,第一层由下式给出:第二层:可以看出,每一层的主体都是线性模型。线性模型,通过矩阵乘法将特征映射到输出,顾名思义,仅能表示线性函数。它具有易于训练的优点,因为当使用线性模型时,许多损失函数会导出凸优化问题。不幸

2017-10-19 19:07:17 39377 2

翻译 梯度消失(vanishing gradient)和梯度爆炸(exploding gradient)

神经网络中梯度不稳定的根本原因:在于前层上的梯度的计算来自于后层上梯度的乘积(链式法则)。当层数很多时,就容易出现不稳定。下边3个隐含层为例:其b1的梯度为:加入激活函数为sigmoid,则其导数如下图:sigmoid导数σ'的最大值为1/4。同常一个权值w的取值范围为abs(w) ,则:|wjσ'(zj)| ,从而有:从上式可以得出结论:前层比

2017-10-19 11:47:28 10057 1

翻译 自编码器(auto-encoder)介绍

一、自编码器简介自编码器可以理解为一个试图还原原始输入的系统,如下图:上图中,虚线蓝色框内的部分就是一个自编码器模型,它由编码器(Encoder)和解码器(Decoder)组成。本质上是对输入信号做某种变换。编码器将输入信号x变换成编码信号y,而解码器将编码信号y转换成输出信号:自编码器的目的是让输出仅可能的复现输入。有人会问,如果f和g是恒等映射,那输入不就永远等于输

2017-10-17 11:55:23 2670

转载 深度学习中常见的过拟合方法

过拟合即训练误差很小,而泛化误差很大。在传统的机器学习方法中有多防止过拟合的方法,同样这些方法很多也适合用于深度学习中,同时深度学习中又有一些独特的防止过拟合的方法,下面对其进行简单的梳理。一、参数范数惩罚范数正则化是一种非常普遍的方法,也是最常用的方法,假如优化: 其中L为经验风险,其为在训练样本上的误差,而G为对参数的惩罚,也叫结构风险;α是平衡两者,如果太大则对应的惩

2017-10-16 11:20:58 3595

原创 为什么交叉熵损失可以提高具有sigmoid和softmax输出的模型的性能,而使用均方误差损失则会存在很多问题

一、均方误差的权值更新过程(举例说明)代价函数经常用方差代价函数(即采用均方误差MSE),比如对于一个神经元(单输入单输出,sigmoid函数),定义其代价函数为:其中y是我们期望的输出,a为神经元的实际输出【 a=σ(z), where z=wx+b 】。在训练神经网络过程中,我们通过梯度下降算法来更新w和b,因此需要计算代价函数对w和b的导数:然后更新w、b

2017-10-16 10:42:08 6886 4

转载 Hessian Matrix(海森矩阵)

Hessian Matrix,译作黑塞矩阵、海森矩阵、海瑟矩阵、海塞矩阵等。是一个多元函数的二阶偏导数构成的方阵,描述了函数的局部曲率。Hessian Matrix最早于19世纪由德国数学家Ludwig Otto Hesse提出,并以其名字命名。Hessian Matrix常用于牛顿法解决优化问题,利用Hessian Matrix可判定多元函数的极值问题。在工程实际问题的优化设计中,所

2017-10-16 09:58:41 11026

转载 雅可比(Jacobian)矩阵

在向量分析中, 雅可比矩阵是一阶偏导数以一定方式排列成的矩阵。其行列式称为雅可比行列式。还有, 在代数几何中, 代数曲线的雅可比量表示雅可比簇:伴随该曲线的一个代数群, 曲线可以嵌入其中. 它们全部都以数学家卡尔·雅可比(Carl Jacob, 1804年10月4日-1851年2月18日)命名。一、Jacobian矩阵雅可比矩阵的重要性在于它体现了一个可微方程与给出点的最优线性逼近. 因此

2017-10-13 18:47:09 57661

翻译 范数(norm)

不说那么多理论了,弄蒙咋整,直接说常见范数及其用途。一、向量范数1.1、 0-范数严格说不属于范数,向量中非零元素的个数。1.2、 1-范数即向量元素绝对值之和,matlab调用函数norm(x, 1) 。1.3、 2-范数Euclid范数(欧几里得范数,常用计算向量长度),即向量元素绝对值的平方和再开方,matlab调用函数norm(x, 2)

2017-10-13 17:42:17 10599

翻译 CART与随机森林

一、前言分类与回归树(Classification and Regression Trees, CART)是由Leo Breiman, Jerome Friedman, Richard Olshen与Charles Stone于1984年提出,既可用于分类也可用于回归。CART被称为数据挖掘领域内里程碑式的算法。题外话,十大经典数据挖掘算法:C4.5K-MeansSVMApri

2017-10-12 14:40:55 2863 1

翻译 Joint Cascade Face detection and Alignment(ECCV2014)介绍

一、总体在Joint Cascade Face detection and Alignment(ECCV2014)(以下简称论文)之前,比较广泛的人脸检测(object detection)方法是Viola-Jones检测器(典型的为Haar + Ababoost)。V-J分类器基于以下两个原则进行检测的:1,逐步提升的级联结构;2,简单的特征。这种方法在日常生活场景中效果不甚理想。在一些复杂

2017-10-11 18:42:18 880

转载 分类决策树

决策树是一个简单易用的机器学习算法,具有很好的实用性。在风险评估、数据分类、专家系统中都能见到决策树的身影。决策树其实是一系列的if-then规则的集合,它有可读性良好,分类速度快等优点。把决策树看成是一些if-then规则的集合,在每一层树上根据属性的值判断走势,至到遇到叶节点,叶节点对应的就是该数据的归类。决策树生成算法遇到的第一个问题就是特征选择问题,即第一次、第二次...第n次

2017-10-11 18:08:56 416

转载 卡方分布

1. 定义:若n个相互独立的随机变量ξ₁,ξ₂,...,ξn,均服从标准正态分布(也称独立同分布于标准正态分布),则这n个服从标准正态分布的随机变量的平方和构成一新的随机变,其分布规律称为卡方分布(chi-square distribution),记作:。卡方分布有一个参数称为自由度,正如正态分布中均值或方差不同就是另一个正态分布一样,自由度不同就是另一个卡方分布。记为:,

2017-10-11 17:26:30 8167

转载 DeepFace介绍

DeepFace是FaceBook提出来的,后续有DeepID和FaceNet出现。而且在DeepID和FaceNet中都能体现DeepFace的身影,所以DeepFace可以谓之CNN在人脸识别的奠基之作,目前深度学习在人脸识别中也取得了非常好的效果。下边介绍DeepFace的基本框架:阶段1——detectionDeepFace采用了基于检测点的人脸检测方法(fiducial Poin

2017-10-10 19:20:15 32566 1

转载 人脸识别现状

研究现状现在的主要研究方向是利用深度学习的方法解决视频人脸识别。主要的研究人员: 中科院计算所的山世光教授中科院生物识别研究所的李子青教授清华大学的苏光大教授香港中文大学的汤晓鸥教授Ross B. Girshick同时,下边链接汇总了计算机视觉大牛的博客和代码汇总:http://www.cnblogs.com/findumars/p/5009003.html

2017-10-10 18:30:36 8445

翻译 人脸识别总体介绍

四个概念1. 人脸检测(detection)在opencv中早就有直接能拿来用的haar分类器,基于Viola-Jones算法,现在看Haar + Adaboost肯定是老掉牙的技术,准确率是个渣。MSRA(微软亚洲研究院)在14年的最新技术——Joint Cascade Face Detection and Alignment(ECCV14),这篇文章直接在30ms的时间里把detect

2017-10-10 17:47:56 2100

翻译 RNN

RNN(Recurrent Neural Network)——循环神经网络,已经在自然语言处理(Natural Language Processing, NLP)中取得了巨大成功以及广泛应用。不同于传统的FNN(Feed-forward Neural Network,前向反馈神经网络),RNN引入了定向循环,能够处理那些输入之间前后关联的问题。定向循环结构如下图所示:RNN

2017-10-10 15:05:48 2758

转载 CUDA和OpenCL

什么是CUDA?CUDA是一个基于Nvidia GPU的并行计算的架构。CUDA最主要的包含两个方面:一个是ISA指令集架构;第二是硬件计算引擎;实际上是硬件和指令集。 也就是说我们可以把CUDA看做是与X86或者cell类似的架构,但是是基于GPU,而不是传统的CPU。什么是OpenCL?是由苹果公司发起,业界众多著名厂商共同制作的面向异构系统通用目的并行编程的开放式、免费标准,

2017-10-10 14:36:20 1914

转载 cuDNN

cuDNN(CUDA Deep Neural Network),官网:https://developer.nvidia.com/cudnn安装相比标准的cuda,它在一些常用的神经网络操作上进行了性能的优化,比如卷积,pooling,归一化,以及激活层等等。在理解上面这段的基础上,我们可以猜测配置cuDNN时是要对cuda进行一些修改,所以我们要先安装cuda。cuDNN下载需要注

2017-10-10 13:31:48 43998

转载 GPU内存分类

全局内存通俗意义上的设备内存。共享内存1. 位置:设备内存。2. 形式:关键字__shared__添加到变量声明中。如__shared__ float cache[10]3. 目的:对于GPU上启动的每个线程块,CUDA C编译器都将创建该共享变量的一个副本。线程块中的每个线程都共享这块内存,但线程却无法看到也不能修改其他线程块的变量副本。这样使得一个线程块中的多个线程能够在计

2017-10-10 11:50:20 1333

转载 CUDA入门

CUDA是什么CUDA(Compute Unified Device Architecture),是由NVIDIA公司创立的基于他们公司生产的图形处理器GPUs(Graphics Processing Units,可以通俗的理解为显卡)的一个并行计算平台和编程模型。通过CUDA,GPUs可以很方便地被用来进行通用计算(有点像在CPU中进行的数值计算等等)。在没有CUDA之前,GPUs一般只用来

2017-10-10 10:45:27 248

ubuntu gedit color schemes

在Ubuntu系统下,习惯用gedit写代码的盆友们,是不是总觉得配色不爽,要么背景太亮,要么关键字颜色不突出。gedit默认提供的配色方案就四五种,捉襟见肘。本资源包含了上百种配色方案,总有一款适合你。

2018-05-24

非常直观的讲述了CNN的工作原理

非常直观的讲述了CNN的工作原理,来自brohrer@Microsoft.com

2018-02-27

MFC对话框里显示GIF动画图片

MFC对话框里显示GIF动画图片

2015-01-24

等待对话框(模态)

在写程序时,经常会碰到处理大数据量的任务,例如读取尺寸巨大的图像。此时如果直接在主线程中读取,会导致主界面假死的现象。通常的解决办法是新开一个线程来负责处理比较耗时的任务。线程在处理的过程中,希望主界面弹出等待提示框,提示使用者软件正在处理数据,请等待;并且等待对话框最好是模态的,这样使用者就无法进行其他任何操作了。

2013-04-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除