神经网络中的能量函数

能量函数(energy function)一开始在热力学中被定义,用于描述系统的能量值,当能量值达到最小时系统达到稳定状态。 
在神经网络(Neural Network)中,在RBM中被首次使用。在RBM中,输入层v和隐藏层h之间的能量函数定义为: 

E(v,h)=ivaivi+jhbjhj+iv,jhvihjwij

将a,v,b,h和w向量表示成矩阵,这个式子可以简化为 
E(v,h)=A×V+B×H+V×W×H

A,B,W都是权重矩阵,从式中可以看出,这个能量函数为V和H的加权与VH的加权和。在后续的步骤中,v和h的联合概率为p(v,h)=1zeE(v,h),其中z为归一化因子。训练的目的为使得联合概率尽量大,即能量函数尽量小。从这个角度出发,能量函数的意义与热力学相同,能量函数值越小,系统趋于稳定。所以能量函数是反映系统稳定程度的参考指标,在这个意义上与代价函数(cost function)相似。 
Bengio 大牛在其 2003年的JMLR 论文中的未来工作一段,他提了一个能量函数,把输入向量和输出向量统一考虑,并以最小化能量函数为目标进行优化。在这个意义上,能量函数和代价函数本质上是一样的。
阅读更多
个人分类: DeepLearning4J
上一篇bagging与boosting两种集成模型的偏差bias以及方差variance 的理解
下一篇核函数的理解一
想对作者说点什么? 我来说一句

递归偏最小二乘法的简单介绍

2016年04月15日 1.33MB 下载

没有更多推荐了,返回首页

关闭
关闭