自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 资源 (12)
  • 收藏
  • 关注

原创 径向基神经网络RBF

RBF网络原理RBF网络,即径向基神经网络,也是前馈型网络的一种。它的设计思想和BP网络完全不一样。 Cover定理:将复杂的模式分类问题非线性的投射到高维空间将比投射到低维空间更可能是线性可分的。也就是说这个问题在低维空间不一定是线性可分的,但如果把它映射到高纬度的空间去,在那里就可能是线性可分的。这就是RBF网络的原理。 RBF将问题转换为线性可分之后便

2016-05-30 20:56:43 9767

原创 hog特征原理详解及matlab代码学习笔记

1、HOG特征:       方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合SVM分类器已经被广泛应用于图像识别中,尤其在行人检测中获得了极大的成功。需要提醒的是,HOG+SVM进行行人检测的方法是法国研究人员Dal

2016-05-24 10:41:10 41829 32

原创 极限学习机学习笔记

单层前馈神经网络(SLFN)以其良好的学习能力在许多领域得到了广泛的应用,然而传统的学习算法,如BP等固有的一些缺点,成为制约其发展的主要瓶颈,前馈神经网络大多采用梯度下降法,该方法存在以下几个方面的缺点和不足:1、训练速度慢。由于梯度下降法需要多次迭代,从而达到修正权值和阈值的目的,因此训练过程耗时较长;2、容易陷入局部极小值,无法到达全局最小;3、学习率yita的选择敏感,学习率对

2016-05-22 21:39:40 32235 12

转载 【面向代码】学习 Deep Learning(二)Deep Belief Nets(DBNs)

原文链接:http://blog.csdn.net/dark_scope/article/details/9447967最近一直在看Deep Learning,各类博客、论文看得不少但是说实话,这样做有些疏于实现,一来呢自己的电脑也不是很好,二来呢我目前也没能力自己去写一个toolbox只是跟着Andrew Ng的UFLDL tutorial 写了些已有框架的代码(这部分的代码见git

2016-05-12 17:47:57 682

转载 梯度下降法

申明:本文非笔者原创,原文转载自:http://www.cnblogs.com/549294286/archive/2012/12/13/2817204.html一、梯度gradienthttp://zh.wikipedia.org/wiki/%E6%A2%AF%E5%BA%A6在标量场f中的一点处存在一个矢量G,该矢量方向为f在该点处变化率最大的方向,

2016-05-12 12:59:08 870

转载 one hot 编码及数据归一化

机器学习 数据预处理之独热编码(One-Hot Encoding)问题由来在很多机器学习任务中,特征并不总是连续值,而有可能是分类值。例如,考虑一下的三个特征:["male", "female"]["from Europe", "from US", "from Asia"]["uses Firefox", "uses Chrome", "us

2016-05-11 14:51:33 82851 9

转载 机器学习中的归一化方法(Normalization Method)

机器学习、数据挖掘工作中,数据前期准备、数据预处理过程、特征提取等几个步骤几乎要花费数据工程师一半的工作时间。同时,数据预处理的效果也直接影响了后续模型能否有效的工作。然而,目前的大部分学术研究主要集中在模型的构建、优化等方面,对数据预处理的理论研究甚少,可以说,很多数据预处理工作仍然是靠工程师的经验进行的。从业数据建模/挖掘工作也有近2年的时间,在这里结合谈一谈数据预处理中归一化方法。在

2016-05-10 18:31:48 11891

转载 Stacked Autoencoders

博文内容参照网页 Stacked Autoencoders ,Stacked Autocoders是栈式的自编码器(参考网页 Autoencoder and Sparsity 和博文自编码与稀疏性),就是多层的自编码器,把前一层自编码器的输出(中间隐藏层)作为后一层自编码器的输入,其实就是把很多自编码器的编码部分叠加起来,然后再叠加对应自编码器的解码部分,这样就是一个含有多个隐含层的自编码

2016-05-05 18:00:53 1092

转载 大白话解析模拟退火算法

优化算法入门系列文章目录(更新中):  1. 模拟退火算法  2. 遗传算法 原文链接:原文一. 爬山算法 ( Hill Climbing )         介绍模拟退火前,先介绍爬山算法。爬山算法是一种简单的贪心搜索算法,该算法每次从当前解的临近解空间中选择一个最优解作为当前解,直到达到一个局部最优解。         爬山算法实现很简单,其主要

2016-05-02 15:44:46 541

Phog特征提取MATLAB代码

phog特征提取MATLAB代码

2016-11-14

LDA线性判别分析降维

LDA线性判别分析降维

2016-11-14

数学之美,pdf

2016-07-28

RNN与LSTM详解ppt

本ppt详细介绍了LSTM和RNN的结构及公式推导,并对二者进行了比较

2016-06-01

matlab随机森林工具箱

matlab随机森林工具箱

2016-05-29

BOW视觉词袋模型的matlab实现易理解,模块化

这里面的matlab代码是BOW的实现,里面有kmeans++的部分,模块化,易理解,稍微改动就可以用于解决自己的问题

2016-04-27

深度学习基础教程

深度学习的基础教程

2016-04-24

BP神经网络

BP神经网络

2016-04-10

遗传算法优化BP神经网络程序

遗传算法是利用谢菲尔德工具箱,神经网络工具箱是matlab自带的,优化初始网络权值

2016-04-10

遗传算法MATLAB谢菲尔德工具箱

这是经典的遗传算法工具箱,里面的代码都可见,MATLAB版,是学习遗传算法的非常好的途径

2016-04-08

libsvm-FarutuUltimate版本各种函数使用方式

这个函数涵盖了libsvm-FarutuUltimate中所有函数的使用方法,看了这些函数以后,libsvm工具箱,基本上就会使用了

2016-04-04

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除