自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 问答 (1)
  • 收藏
  • 关注

转载 Shader 坐标转换

转自:http://www.ownself.org/blog/2010/kong-jian-zuo-biao-zhuan-huan.html    这个比较基础了,不过基础最重要,往往应该理解透彻,并且反复复习。    我们知道在3D画面渲染过程中对于模型的计算的一部分被称为Transforming and Lighting(T&L)阶段,其中Lighting表示光照,而Trans

2016-04-27 13:54:17 2628

转载 Kullback-Leibler Divergence

本文转自:http://www.cnblogs.com/ywl925/p/3554502.htmlKL距离,是Kullback-Leibler差异(Kullback-Leibler Divergence)的简称,也叫做相对熵(Relative Entropy)。它衡量的是相同事件空间里的两个概率分布的差异情况。其物理意义是:在相同事件空间里,概率分布P(x)的事件空间,若用概率分布Q(x)

2016-04-24 22:42:05 798

转载 DXSDK_June10安装错误

今天安装DXSDK_Jun10时(下载地址:http://download.microsoft.com/download/A/E/7/AE743F1F-632B-4809-87A9-AA1BB3458E31/DXSDK_Jun10.exe),出现错误Error Code:s1023 错误原因:计算机上有安装过更新版的Microsoft Visual C++ 2010 R

2016-04-22 10:52:32 1174

翻译 complementary prior

https://www.douban.com/note/344374111/Complementary Prior 的提出,应该是用于解决多层网络中不好计算的问题。多层有向网络,Deep Belief Networks如图,多层有向网络中很难进行推断:如果计算 W,我们需要知道第一个隐层的后验概率,那么会遇到几个问题:

2016-04-21 04:49:12 2086

转载 YUV常用的两种保存方式_YUY2和YV12

转自:http://blog.csdn.net/yiheng_l/article/details/3784874简单的说,YUV的格式在存储上有两类布局: Packed和Plannar。Packed的方式就是把相邻几个象素打包起来。比如把水平方向2个象素打包到一个DWORD里。Planner方式则相反。Y分量和UV分量完全分开来保存。    YUY2和YV12是最常用的两个代表。YUY

2016-04-20 15:43:27 2211

转载 DBN训练学习-A fast Learning algorithm for deep belief nets

转载自:http://blog.sciencenet.cn/blog-110554-889016.htmlDBN的学习一般都是从Hinton的论文A Fast Learning Algorithm for Deep Belief Nets开始。如果没有相关的背景知识,不知道问题的来由,这篇论文读起来是相当费劲的。学习过程中主要参考了三篇文献,尤其是其中第二篇文献。这篇论文被我忽视了很久

2016-04-19 08:14:55 5179

转载 RBM/DBN训练中的explaining away概念

可以参照Stanford大神DaphneKoller的概率图模型,里面贝叶斯网络一节讲到了explaining away。我看过之后试着谈谈自己的理解。explainingaway指的是这样一种情况:对于一个多因一果的问题,假设各种“因”之间都是相互独立的,如果已经确定了是因为其中一种原因导致了结果,那么因为其他原因导致了该结果的概率就会下降。单纯看定义似乎很令人费解,因为原因之间应该

2016-04-18 19:45:23 750

转载 光栅化坐标映射公式

Direct3D中投影空间内的点坐标与屏幕上(或视口内)点的对应关系,设屏幕大小为w×h,屏幕左上角像素的中心被定义为(0,0),整个屏幕是从(-0.5,-0.5)-(w-0.5,h-0.5),像素将投影空间内的x轴上区间(-1.0-1/w, 1.0-1/w]均匀分成w份,每份长度2/w,将投影空间内的y轴上区间(-1.0-1/h, 1.0-1/h]均匀分成h份,每份长度2/h。

2016-04-18 11:01:58 1005

转载 DCT变换学习

DCT变换的基本思路是将图像分解为8×8的子块或16×16的子块,并对每一个子块进行单独的DCT变换,然后对变换结果进行量化、编码。随着子块尺寸的增加,算法的复杂度急剧上升,因此,实用中通常采用8×8的子块进行变换,但采用较大的子块可以明显减少图像分块效应。      在图像压缩中,一般把图像分解为8×8的子块,然后对每一个子块进行DCT变换、量化,并对量化后的数据进行Huffman编码。DC

2016-04-18 09:22:14 1248

转载 针对深度学习的GPU芯片选择

转自:http://timdettmers.com/2014/08/14/which-gpu-for-deep-learning/It is again and again amazing to see how much speedup you get when you use GPUs for deep learning: Compared to CPUs 10x speedups ar

2016-04-17 20:01:06 1985

转载 Boltzmann Machine 入门(2)

发现RBM 中的能量函数概念需要从Hopfield网络的角度理解,于是找到http://blog.csdn.net/roger__wong/article/details/43374343和关于BM的最经典论文http://www.cs.toronto.edu/~hinton/papers.html#1983-1976一、限制玻尔兹曼机的感性认识要回答这个问题大概还

2016-04-17 16:19:19 863

转载 Boltzmann Machine 入门(1)

根据我的第一篇关于DBM的博文,明白了一个道理,1. v 和h 互相能推测出彼此,表示同一组特征的两种形式,就像时域频域一样。接下来又看了 http://www.cnblogs.com/tianchi/archive/2013/03/14/2959716.html 以热力学分子随机取值变化对整体能量影响的概念理解DBM中能量函数的概念。理解为 2. 整体的能量被各个随机节点以一定的概率朝着某个方向

2016-04-17 16:12:02 352

转载 GPU Shader 程序调试方法

转载自: http://blog.csdn.net/pizi0475/article/details/7573939内容提要:手动调试和使用工具PIX调试Direct3D程序。      3D绘图中常见问题:1.模型消失,没有出现在画面上;2.模型在画面上失真、变形或者闪烁;3.贴图出现不正常拉扯;4.使用了错误的贴图、Shader或者RenderState .  

2016-04-15 15:38:54 3044

转载 深度学习基本概念

申明:本文非笔者原创,原文转载自:http://www.sigvc.org/bbs/thread-2187-1-3.html4.2、初级(浅层)特征表示        既然像素级的特征表示方法没有作用,那怎样的表示才有用呢?        1995 年前后,Bruno Olshausen和 David Field 两位

2016-04-13 13:59:36 12465 1

转载 Newton Method in Maching Learning

牛顿方法:转自http://blog.csdn.net/andrewseu/article/details/46771947本讲大纲:1.牛顿方法(Newton’s method) 2.指数族(Exponential family) 3.广义线性模型(Generalized linear models)1.牛顿方法假设有函数:,我们希望找到满足的值. 这里是实数.

2016-04-07 09:46:19 367

翻译 统计学习笔记(4) 线性回归(1)

Quantitative algorithmError evaluationIn this chapter, we review some of the key ideas underlying the linear regression model, as well as the least squares approach that is most commonly used to

2016-04-05 09:52:05 6171

翻译 统计学习笔记(3) 监督学习概论(3)

Some further statements on KNN:It appears that k-nearest-neighbor fits have a single parameter, the number of neighbors k, compared to the p parameters in least-squares fits. Although this is the

2016-04-01 09:28:08 1516

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除