自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 资源 (2)
  • 收藏
  • 关注

原创 opencv读入图像、灰度化、归一化、向量化

平台:win7+opencv2.4.4+vs2008功能:实现对图像的读入、灰度化、归一化和向量化。代码://这里的头文件都是vs2008的,与vc6.0有多不同#include #includeusing namespace std;using namespace cv;void main(int argc, char* argv[]){ IplImage *s

2014-03-19 21:03:18 14293 1

转载 OpenCV图像、矩阵、数组

OpenCV图像、矩阵、数组一、结构IplImage  |-- int  nChannels;     // Number of color channels (1,2,3,4)  |-- int  depth;         // Pixel depth in bits:  |                       //   IPL_DEPTH_8U, IPL

2014-03-19 09:09:22 1074

转载 深度信念网络(DBN)

深度神经网路已经在语音识别,图像识别等领域取得前所未有的成功。本人在多年之前也曾接触过神经网络。本系列文章主要记录自己对深度神经网络的一些学习心得。1.  自联想神经网络与深度网络      自联想神经网络是很古老的神经网络模型,简单的说,它就是三层BP网络,只不过它的输出等于输入。很多时候我们并不要求输出精确的等于输入,而是允许一定的误差存

2014-03-06 18:49:31 10588 4

转载 卷积神经网络(CNN)

在上篇中介绍的输入层与隐含层的连接称为全连接,如果输入数据是小块图像,比如8×8,那这种方法是可行的,但是如果输入图像是96×96,假设隐含层神经元100个,那么就有一百万个(96×96×100)参数需要学习,向前或向后传播计算时计算时间也会慢很多。  解决这类问题的一种简单方法是对隐含单元和输入单元间的连接加以限制:每个隐含单元仅仅只能连接输入单元的一部分。例如,每个隐含单元仅仅连接输入

2014-03-06 14:42:52 2905 2

转载 前馈网络及反向传播

本文主要介绍多层感知器模型(MLP),它也可以看成是一种logister回归,输入层通过非线性转换,即通过隐含层把输入投影到线性可分的空间中。如果我们在中间加一层神经元作为隐含层,则它的结构如下图所示    单隐层的MLP定义了一个映射: ,其中 D和L为输入向量和输出向量f(x)的大小。    隐含层与输出层神经元的值通过激活函数计算出来,例如下图:如果我们选用s

2014-03-06 14:39:52 1952

转载 栈式自编码算法(SAE)

对于一个拥有输入层,隐藏层,输出层的三层神经网络,我们称之为shallow learning,它处理输入特征明显的数据效果很好,但对于比较复杂的数据需要引入更多的隐藏层,因为每一个隐藏层可以看作对上一层输出的非线性转换,也就可以学习到更加复杂的模型。    但是单纯的在原来三层网络上曾加隐藏层并没有带来更好的效果,因为层数曾加以后使用梯度下降法优化的是一个高度非凸的优化问题,训练误差很容易

2014-03-06 14:33:23 13303

扑克牌图像 素材

本人自己拍摄自己美化的高分辨率扑克牌图像 方便大家使用

2013-07-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除