- 博客(6)
- 资源 (2)
- 收藏
- 关注
原创 opencv读入图像、灰度化、归一化、向量化
平台:win7+opencv2.4.4+vs2008功能:实现对图像的读入、灰度化、归一化和向量化。代码://这里的头文件都是vs2008的,与vc6.0有多不同#include #includeusing namespace std;using namespace cv;void main(int argc, char* argv[]){ IplImage *s
2014-03-19 21:03:18 14293 1
转载 OpenCV图像、矩阵、数组
OpenCV图像、矩阵、数组一、结构IplImage |-- int nChannels; // Number of color channels (1,2,3,4) |-- int depth; // Pixel depth in bits: | // IPL_DEPTH_8U, IPL
2014-03-19 09:09:22 1074
转载 深度信念网络(DBN)
深度神经网路已经在语音识别,图像识别等领域取得前所未有的成功。本人在多年之前也曾接触过神经网络。本系列文章主要记录自己对深度神经网络的一些学习心得。1. 自联想神经网络与深度网络 自联想神经网络是很古老的神经网络模型,简单的说,它就是三层BP网络,只不过它的输出等于输入。很多时候我们并不要求输出精确的等于输入,而是允许一定的误差存
2014-03-06 18:49:31 10588 4
转载 卷积神经网络(CNN)
在上篇中介绍的输入层与隐含层的连接称为全连接,如果输入数据是小块图像,比如8×8,那这种方法是可行的,但是如果输入图像是96×96,假设隐含层神经元100个,那么就有一百万个(96×96×100)参数需要学习,向前或向后传播计算时计算时间也会慢很多。 解决这类问题的一种简单方法是对隐含单元和输入单元间的连接加以限制:每个隐含单元仅仅只能连接输入单元的一部分。例如,每个隐含单元仅仅连接输入
2014-03-06 14:42:52 2905 2
转载 前馈网络及反向传播
本文主要介绍多层感知器模型(MLP),它也可以看成是一种logister回归,输入层通过非线性转换,即通过隐含层把输入投影到线性可分的空间中。如果我们在中间加一层神经元作为隐含层,则它的结构如下图所示 单隐层的MLP定义了一个映射: ,其中 D和L为输入向量和输出向量f(x)的大小。 隐含层与输出层神经元的值通过激活函数计算出来,例如下图:如果我们选用s
2014-03-06 14:39:52 1952
转载 栈式自编码算法(SAE)
对于一个拥有输入层,隐藏层,输出层的三层神经网络,我们称之为shallow learning,它处理输入特征明显的数据效果很好,但对于比较复杂的数据需要引入更多的隐藏层,因为每一个隐藏层可以看作对上一层输出的非线性转换,也就可以学习到更加复杂的模型。 但是单纯的在原来三层网络上曾加隐藏层并没有带来更好的效果,因为层数曾加以后使用梯度下降法优化的是一个高度非凸的优化问题,训练误差很容易
2014-03-06 14:33:23 13303
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人