自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 收藏
  • 关注

原创 图像处理-阈值分割方法汇总

基本概念图像阈值分割是图像处理中最基本也是最常用的方法之一,主要用于将图像中的像素点划分为两个或者多个类别,从而得到便于处理的目标对象。...

2018-12-23 13:18:06 6409

原创 ICA(独立成分分析)方法及应用于视频分析心跳检测

本文整理自论文《Non-contact, automated cardiac pulse measurements using video imaging and blind source separation》及ICA相关资料。独立成分分析(Independent Component Analysis,ICA),是一种数据驱动的信号分析方法,常用于盲源分离(Blind Source Separ...

2018-12-13 17:21:26 3164 2

转载 Yann LeCun、Yoshua Bengio和Geoffrey Hinton的联合综述《Deep Learning》翻译

【编者按】深度学习领域的三位大牛Yann LeCun、Yoshua Bengio和Geoffrey Hinton无人不知无人不晓。此前,为纪念人工智能提出60周年,Yann LeCun、Yoshua Bengio和Geoffrey Hinton首次合作了这篇综述文章“Deep Learning”。该综述文章中文译文的上半部分,深入浅出地介绍了深度学习的基本原理和核心优势。原文摘要:深度学习可以让那...

2018-11-29 15:32:31 1507

转载 浅谈什么是张量tensor

浅谈什么是张量tensor也许你已经下载了TensorFlow,而且准备开始着手研究深度学习。但是你会疑惑:TensorFlow里面的Tensor,也就是“张量”,到底是个什么鬼?也许你查阅了维基百科,而且现在变得更加困惑。也许你在NASA教程中看到它,仍然不知道它在说些什么?问题在于大多数讲述张量的指南,都假设你已经掌握他们描述数学的所有术语。别担心!我像小孩子一样讨厌数学,所以如果我能明白,...

2018-11-07 11:57:03 275

原创 卷积与反卷积(deconvolution)

参考资料:如何理解深度学习中的deconvolution networks

2018-11-07 11:33:36 707

原创 GAN学习

开始学习GAN生成对抗网络相关知识,将要点和心得总结于此。

2018-11-05 14:36:02 941

原创 基本图像分类与目标检测网络要点总结

图像分类AlexNet(2012)是深度学习在计算机视觉领域的影响力较大的论文,获得了2012年ImageNet冠军。深度为7层,基本结构如下图。准确率达到57.1%,top 1-5 达到80.2%。使用ReLU,计算简便,缓解Sigmoid中梯度消失的问题。但当学习率较大时易出现dead神经元(落入负半区则永远无法激活),因此学习率设置不能过大。或者可以使用Leaky ReLU替代。...

2018-09-25 11:22:30 7569

原创 模式识别基础

文章目录统计决策方法统计决策方法贝叶斯公式$$$$

2018-09-23 22:16:19 1387

原创 CSDN博客写作方法

CSDN新手一枚,汇总一些博客写作方法技巧CSDN怎么转载别人的博客CSDN博客排版技巧(MarkDown+HTML)-图片排版-同一行插入多张图片

2018-09-22 14:54:14 723

原创 数字图像处理基础

文章目录数字图像处理数字图像基础图像内插数字图像处理数字图像基础图像内插用于图像放大、缩小、旋转、几何校正等任务。首先确定变换前后的坐标对应关系,用src表示转换前的图像尺寸,dst表示转换后的图像尺寸,src’表示转换后图像对应于原图像的坐标。对于图像缩放,缩放系数t=src/dstt=src/dstt=src/dst,则dst对应在src中的坐标为src′=dst∗tsrc&a

2018-09-22 14:32:35 646

原创 线性回归、逻辑回归和softmax方法

文章目录线性回归(Linear Regression,LR)线性回归注意事项岭回归(Ridge Regression)和Lasso回归岭回归Lasso回归岭回归和Lasso回归的联系与区别逻辑回归softmax线性回归(Linear Regression,LR)对于m个样本X=[x1,x2⋯xn]TX=[x_{1},x_{2}\cdots x_{n}]^{T}X=[x1​,x2​⋯xn​]T,...

2018-09-20 17:13:17 1148

原创 概率论及数理统计相关概念

概率论与数理统计事件及事件运算事件的运算性质频率概率条件概率排列与组合功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入...

2018-09-18 12:17:42 985

原创 CNN中感受野大小的计算

参考资料: 卷积神经网络物体检测之感受野大小计算 - machineLearning - 博客园 https://www.cnblogs.com/objectDetect/p/5947169.html CNN 感受野计算公式 - 简书 https://www.jianshu.com/p/e875117e5372将输入图片记为第0层,其后的卷积层和池化层对RF(receptive fie...

2018-09-15 13:06:44 2449

原创 目标检测汇总

SPPNet: SPP-Net论文详解 - CSDN博客 https://blog.csdn.net/v1_vivian/article/details/73275259基于深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN - Madcola - 博客园 https://www.cnblogs.com/skyfsm/p/6806246.html...

2018-08-30 09:25:50 191

原创 DL相关概念汇总

Maxout: Maxout Network原理及其TensorFlow实现搜狐科技搜狐网 https://www.sohu.com/a/146005028_723464

2018-08-27 17:13:25 317

原创 拉格朗日乘子法、KKT条件与拉格朗日对偶

参考资料: 约束优化方法之拉格朗日乘子法与KKT条件 - ooon - 博客园 https://www.cnblogs.com/ooon/p/5721119.html 拉格朗日对偶 - ooon - 博客园 https://www.cnblogs.com/ooon/p/5723725.html...

2018-08-25 13:20:53 315

原创 一些较好的深度学习相关文章汇总

深入理解卷积层,全连接层的作用意义 - CSDN博客 https://blog.csdn.net/m0_37407756/article/details/80904580

2018-08-23 11:20:59 184

原创 在网络中用卷积层代替全连接层

参考资料: FCN用卷积层代替FC层原因(转) - byteH - 博客园 https://www.cnblogs.com/byteHuang/p/6959714.html 深度学习—之全卷积神经网络取代全连接层–用于图像分割 - CSDN博客 https://blog.csdn.net/zxyhhjs2017/article/details/78603332占坑,待填...

2018-08-23 11:15:04 2674

原创 batch size、iteration、epoch的含义

batch size:批尺寸,在训练中,一般采用SGD训练,即每次训练取batch size个样本训练; iteration:迭代次数,每次迭代使用batchsize个样本训练一次,并更新一次权值; epoch:1个epoch等于使用训练集中的全部样本训练一次;例如,训练集中有1000个样本,设置batch size=10,那么训练完整个样本集需要100次iteration,1次epoch...

2018-08-22 17:17:53 261

原创 L1和L2正则化

参考资料: 机器学习中正则化项L1和L2的直观理解 - CSDN博客 https://blog.csdn.net/jinping_shi/article/details/52433975 【一看就懂】机器学习之L1和L2正则化 https://baijiahao.baidu.com/s?id=1595711904189222402&wfr=spider&for=pc 正则...

2018-08-22 17:06:45 140

原创 DL相关论文翻译与理解汇总

AlexNet:《ImageNet Classification with Deep Convolutional Neural Networks》 https://blog.csdn.net/qianqing13579/article/details/71381016?locationNum=15&fps=1

2018-08-22 09:09:15 206

转载 深度学习中的数学与技巧(10):PCA的数学原理

reference: (good article :)) ) http://blog.codinglabs.org/articles/pca-tutorial.htmlPCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始...

2018-08-21 15:58:59 362

转载 深度学习中的数学与技巧(9):协方差矩阵的几何解释

reference:https://www.cnblogs.com/nsnow/p/4758202.htmlA geometric interpretation of the covariance matrixhttp://www.visiondummy.com/2014/04/geometric...

2018-08-21 15:58:24 949

转载 深度学习中的数学与技巧(8):矩阵及其变换、特征值与特征向量的物理意义

reference:https://www.cnblogs.com/chaosimple/p/3172039.html最近在做聚类的时候用到了主成分分析PCA技术,里面涉及一些关于矩阵特征值和特征向量的内容,在网上找到一篇对特征向量及其物理意义说明较好的文章,整理下来,分享一下。 ...

2018-08-21 15:57:15 1503

转载 深度学习中的数学与技巧(7):特征值和特征向量的几何意义、计算及其性质

一、特征值和特征向量的几何意义特征值和特征向量确实有很明确的几何意义,矩阵(既然讨论特征向量的问题,当然是方阵,这里不讨论广义特征向量的概念,就是一般的特征向量)乘以一个向量的结果仍是同维数的一个向量。因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量。那么变换的效果是什么呢?这当...

2018-08-21 15:56:35 2069

转载 深度学习中的数学与技巧(6): 详解协方差与协方差矩阵计算

协方差的定义 对于一般的分布,直接代入E(X)之类的就可以计算出来了,但真给你一个具体数值的分布,要计算协方差矩阵,根据这个公式来计算,还真不容易反应过来。网上值得参考的资料也不多,这里用一个例子说明协方差矩阵是怎么计算出来的吧。记住,X、Y是一个列向量,它表示了每种情况下每个样本可能...

2018-08-21 15:53:28 865

转载 深度学习中的数学与技巧(5):白化whitening

一、相关理论    白化这个词,可能在深度学习领域比较常遇到,挺起来就是高大上的名词,然而其实白化是一个比PCA稍微高级一点的算法而已,所以如果熟悉PCA,那么其实会发现这是一个非常简单的算法。    白化的目的是去除输入数据的冗余信息。假设训...

2018-08-21 15:52:50 660

转载 深度学习中的数学与技巧(4): BatchNormalization 代码实现

BatchNormalization是神经网络中常用的参数初始化的方法。其算法流程图如下: 我们可以把这个流程图以门电路的形式展开,方便进行前向传播和后向传播: 那么前向传播非常简单,直接给出代码:def batchnorm_forward(x, gamma, beta,...

2018-08-21 15:52:07 407

转载 深度学习中的数学与技巧(3):从Bayesian角度浅析Batch Normalization

前置阅读:http://blog.csdn.net/happynear/article/details/44238541——Batch Norm阅读笔记与实现前置阅读:http://www.zhihu.com/question/38102762——知乎网友Deep Learning与Baye...

2018-08-21 15:51:23 290

转载 深度学习中的数学与技巧(2):《Batch Normalization Accelerating Deep Network Training by Reducing Interna

  今年过年之前,MSRA和Google相继在ImagenNet图像识别数据集上报告他们的效果超越了人类水平,下面将分两期介绍两者的算法细节。  这次先讲Google的这篇《Batch Normalization Accelerating Deep Network Training by Redu...

2018-08-21 15:47:26 4872

转载 深度学习中的数学与技巧(1):BN之利用随机前馈神经网络生成图像观察网络复杂度

一、前言  关于神经网络的作用有一个解释:它是一个万能函数逼近器。通过BP算法调整权重,在理论上神经网络可以近似出任意的函数。   当然,要近似出来的函数的复杂度肯定不能超过神经网络的表达能力,不然就会产生欠拟合的现象。而一个网络能承载的函数复杂度通常与隐层节点个数和深度有关。&...

2018-08-21 15:41:59 173

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除