- 博客(17)
- 问答 (1)
- 收藏
- 关注
转载 Shader 坐标转换
转自:http://www.ownself.org/blog/2010/kong-jian-zuo-biao-zhuan-huan.html 这个比较基础了,不过基础最重要,往往应该理解透彻,并且反复复习。 我们知道在3D画面渲染过程中对于模型的计算的一部分被称为Transforming and Lighting(T&L)阶段,其中Lighting表示光照,而Trans
2016-04-27 13:54:17 2628
转载 Kullback-Leibler Divergence
本文转自:http://www.cnblogs.com/ywl925/p/3554502.htmlKL距离,是Kullback-Leibler差异(Kullback-Leibler Divergence)的简称,也叫做相对熵(Relative Entropy)。它衡量的是相同事件空间里的两个概率分布的差异情况。其物理意义是:在相同事件空间里,概率分布P(x)的事件空间,若用概率分布Q(x)
2016-04-24 22:42:05 797
转载 DXSDK_June10安装错误
今天安装DXSDK_Jun10时(下载地址:http://download.microsoft.com/download/A/E/7/AE743F1F-632B-4809-87A9-AA1BB3458E31/DXSDK_Jun10.exe),出现错误Error Code:s1023 错误原因:计算机上有安装过更新版的Microsoft Visual C++ 2010 R
2016-04-22 10:52:32 1173
翻译 complementary prior
https://www.douban.com/note/344374111/Complementary Prior 的提出,应该是用于解决多层网络中不好计算的问题。多层有向网络,Deep Belief Networks如图,多层有向网络中很难进行推断:如果计算 W,我们需要知道第一个隐层的后验概率,那么会遇到几个问题:
2016-04-21 04:49:12 2086
转载 YUV常用的两种保存方式_YUY2和YV12
转自:http://blog.csdn.net/yiheng_l/article/details/3784874简单的说,YUV的格式在存储上有两类布局: Packed和Plannar。Packed的方式就是把相邻几个象素打包起来。比如把水平方向2个象素打包到一个DWORD里。Planner方式则相反。Y分量和UV分量完全分开来保存。 YUY2和YV12是最常用的两个代表。YUY
2016-04-20 15:43:27 2211
转载 DBN训练学习-A fast Learning algorithm for deep belief nets
转载自:http://blog.sciencenet.cn/blog-110554-889016.htmlDBN的学习一般都是从Hinton的论文A Fast Learning Algorithm for Deep Belief Nets开始。如果没有相关的背景知识,不知道问题的来由,这篇论文读起来是相当费劲的。学习过程中主要参考了三篇文献,尤其是其中第二篇文献。这篇论文被我忽视了很久
2016-04-19 08:14:55 5179
转载 RBM/DBN训练中的explaining away概念
可以参照Stanford大神DaphneKoller的概率图模型,里面贝叶斯网络一节讲到了explaining away。我看过之后试着谈谈自己的理解。explainingaway指的是这样一种情况:对于一个多因一果的问题,假设各种“因”之间都是相互独立的,如果已经确定了是因为其中一种原因导致了结果,那么因为其他原因导致了该结果的概率就会下降。单纯看定义似乎很令人费解,因为原因之间应该
2016-04-18 19:45:23 750
转载 光栅化坐标映射公式
Direct3D中投影空间内的点坐标与屏幕上(或视口内)点的对应关系,设屏幕大小为w×h,屏幕左上角像素的中心被定义为(0,0),整个屏幕是从(-0.5,-0.5)-(w-0.5,h-0.5),像素将投影空间内的x轴上区间(-1.0-1/w, 1.0-1/w]均匀分成w份,每份长度2/w,将投影空间内的y轴上区间(-1.0-1/h, 1.0-1/h]均匀分成h份,每份长度2/h。
2016-04-18 11:01:58 1005
转载 DCT变换学习
DCT变换的基本思路是将图像分解为8×8的子块或16×16的子块,并对每一个子块进行单独的DCT变换,然后对变换结果进行量化、编码。随着子块尺寸的增加,算法的复杂度急剧上升,因此,实用中通常采用8×8的子块进行变换,但采用较大的子块可以明显减少图像分块效应。 在图像压缩中,一般把图像分解为8×8的子块,然后对每一个子块进行DCT变换、量化,并对量化后的数据进行Huffman编码。DC
2016-04-18 09:22:14 1248
转载 针对深度学习的GPU芯片选择
转自:http://timdettmers.com/2014/08/14/which-gpu-for-deep-learning/It is again and again amazing to see how much speedup you get when you use GPUs for deep learning: Compared to CPUs 10x speedups ar
2016-04-17 20:01:06 1985
转载 Boltzmann Machine 入门(2)
发现RBM 中的能量函数概念需要从Hopfield网络的角度理解,于是找到http://blog.csdn.net/roger__wong/article/details/43374343和关于BM的最经典论文http://www.cs.toronto.edu/~hinton/papers.html#1983-1976一、限制玻尔兹曼机的感性认识要回答这个问题大概还
2016-04-17 16:19:19 863
转载 Boltzmann Machine 入门(1)
根据我的第一篇关于DBM的博文,明白了一个道理,1. v 和h 互相能推测出彼此,表示同一组特征的两种形式,就像时域频域一样。接下来又看了 http://www.cnblogs.com/tianchi/archive/2013/03/14/2959716.html 以热力学分子随机取值变化对整体能量影响的概念理解DBM中能量函数的概念。理解为 2. 整体的能量被各个随机节点以一定的概率朝着某个方向
2016-04-17 16:12:02 352
转载 GPU Shader 程序调试方法
转载自: http://blog.csdn.net/pizi0475/article/details/7573939内容提要:手动调试和使用工具PIX调试Direct3D程序。 3D绘图中常见问题:1.模型消失,没有出现在画面上;2.模型在画面上失真、变形或者闪烁;3.贴图出现不正常拉扯;4.使用了错误的贴图、Shader或者RenderState .
2016-04-15 15:38:54 3044
转载 深度学习基本概念
申明:本文非笔者原创,原文转载自:http://www.sigvc.org/bbs/thread-2187-1-3.html4.2、初级(浅层)特征表示 既然像素级的特征表示方法没有作用,那怎样的表示才有用呢? 1995 年前后,Bruno Olshausen和 David Field 两位
2016-04-13 13:59:36 12465 1
转载 Newton Method in Maching Learning
牛顿方法:转自http://blog.csdn.net/andrewseu/article/details/46771947本讲大纲:1.牛顿方法(Newton’s method) 2.指数族(Exponential family) 3.广义线性模型(Generalized linear models)1.牛顿方法假设有函数:,我们希望找到满足的值. 这里是实数.
2016-04-07 09:46:19 367
翻译 统计学习笔记(4) 线性回归(1)
Quantitative algorithmError evaluationIn this chapter, we review some of the key ideas underlying the linear regression model, as well as the least squares approach that is most commonly used to
2016-04-05 09:52:05 6170
翻译 统计学习笔记(3) 监督学习概论(3)
Some further statements on KNN:It appears that k-nearest-neighbor fits have a single parameter, the number of neighbors k, compared to the p parameters in least-squares fits. Although this is the
2016-04-01 09:28:08 1516
空空如也
Ubuntu登录界面无限循环且不能进入指令行模式
2016-09-21
TA创建的收藏夹 TA关注的收藏夹
TA关注的人