自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

翻译 多尺度卷积网络在交通图标和行人检测中的应用

文章:Traffic Signs and Pedestrians Vision with Multi-Scale Convolutional Networks(Snowbird 11)作者:Pierre Sermanet , Koray Kavukcuoglu and Yann LeCun卷积神经网络

2014-08-25 18:34:42 3283

原创 自我总结

以后打算每看一篇文章,写一篇博文总结一下

2014-08-20 09:38:13 565

翻译 基于交通路标分类的多列深度神经网络(MCDNN)

原文标题:Multi-Column Deep Neural Network for Trac Sign Classi cation作者:Dan Ciresan, Ueli Meier, Jonathan Masci and Jurgen Schmidhuber

2014-08-20 09:34:06 7619 2

转载 最大似然估计总结笔记

原文地址为:http://blog.csdn.net/yanqingan/article/details/6125812最大似然估计学习总结------MadTurtle1. 作用在已知试验结果(即是样本)的情况下,用来估计满足这些样本分布的参数,把可能性最大的那个参数作为真实的参数估计。2. 离散型设为离散型随机变量,为多维参数向量,如果随机变

2014-05-24 13:23:44 966

翻译 线性神经元模型

线性系统的定义:~

2014-05-23 12:35:55 2945

转载 关于神经网络归一化方法的整理

请问,如何在matlab中用简单点的方法实现矩阵归一化,并落在0-1之间,谢谢归一化方法很多,一个比较简单的(X-min(X(:)))/(max(X(:))-min(X(:)))关于神经网络(matlab)归一化的整理关于神经网络归一化方法的整理由于采集的各数据单位不一致,因而须对数据进行[-1,1]归一化处理,归一化方法主要有如下几种,供大家参考:(by james)

2014-04-26 10:33:25 7349

翻译 matlab函数std

stdStandard deviation Syntaxs = std(X)s = std(X,flag)s = std(X,flag,dim)DefinitionsThere are two common textbook definitions for the standard

2014-04-25 17:01:41 1219

转载 MATLAB中均值、方差、均方差的计算方法

1、 均值数学定义: (自己搜一下) Matlab函数:mean>>X=[1,2,3]>>mean(X)=2 如果X是一个矩阵,则其均值是一个向量组。mean(X,1)为列向量的均值,mean(X,2)为行向量的均值。>>X=[1 2 3     4 5 6]>>mean(X,1)=[2.5, 3.5, 4.5]>>mean(X,2)=[2

2014-04-25 16:45:08 6888

转载 学习神经网络的15条体会

在科技创新时使用的神经网络的基础上,我再次学习了Matlab下的神经网络编程主要学习到如下结论: z;;1。BP网络的激活函数必须是处处可微的。 z;;2。S型激活函数所划分的区域是一个非线性的超平面组成的区域,它是比较柔和、光滑的任意界面,因而它的分类比线性划分精确、合理,这种网络的容错性较好。另一个重要特点是由于激活函数是连续可微的,

2014-04-24 11:01:31 2988

转载 学习速率

学习速率的选取很重要 ,大了可能导致系统不稳定,小了会导致训练周期过长、收敛慢,达不到要求的误差。一般倾向于选取较小的学习速率以保持系统稳定,通过观察误差下降曲线来判断。下降较快说明学习率比较合适,若有较大振荡则说明学习率偏大。同时,由于网络规模大小的不同,学习率选择应当针对其进行调整。采用变学习速率的方案,令学习速率随学习进展而逐步减少,可收到良好的效果。

2014-04-24 10:50:31 4116

转载 使用SGD(Stochastic Gradient Descent)进行大规模机器学习

http://fuliang.iteye.com/blog/14820021 基于梯度下降的学习 对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出y。我们考虑损失函数,它描述了预测值和实际值y之间的损失。预测值是我们选择从一函数族F中选择一个以w为参数的函数的到的预测结果。 我们的目标是寻找这样的函数,能够在训练集中最小化平均损失函数 

2014-04-24 10:26:54 2432

转载 支持向量机(SVM)、支持向量回归(SVR)

人类通过学习,从已知的 事实中分析、总结出规律,并且根据规律对未来的现象或无法观测的现象做出正确的预测和判断,即获得认知的推广能力。在对智能机器的研究当中,人们也希望能 够利用机器(计算机)来模拟人的良好学习能力,这就是机器学习问题。基于数据的机器学习是现代智能技术中的重要方面,机器学习的目的是通过对已知数据的学 习,找到数据内在的相互依赖关系,从而获得对未知数据的预测和判断能力,在过去的十几年里

2014-04-24 10:10:22 1248

转载 随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比

梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如有哪个方面写的不对,希望网友纠正。下面的h(x)是要拟合的函数,J(theta)损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟合的函数h(theta)就出来了。其中m是训练集的记录条数,j是参数的个数。

2014-04-24 10:08:47 733

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除