受限的玻尔兹曼机

 
分类: 统计机器学习算法理论   425人阅读  评论(1)  收藏  举报

将matlab代码http://code.google.com/p/matrbm/中rbmBB改写成Python代码,如下,参考文献为:

1 A Tutorial on Stochastic Approximation Algorithms for Training Restricted Boltzmann Machines and Deep Belief Nets

2 Inductive Principles for Learning Restricted Boltzmann Machines

3 Training products of experts by minimizing contrastive divergence

4 受限波尔兹曼机简介


[python]  view plain copy 在CODE上查看代码片 派生到我的代码片
  1. import matplotlib.pylab as plt  
  2. import numpy as np  
  3. import random  
  4. from scipy.linalg import norm  
  5. import PIL.Image  
  6. class Rbm:  
  7.     def __init__(self,n_visul, n_hidden, max_epoch = 50, batch_size = 110, penalty = 2e-4, anneal = False, w = None, v_bias = None, h_bias = None):  
  8.         self.n_visible = n_visul  
  9.         self.n_hidden = n_hidden  
  10.         self.max_epoch = max_epoch  
  11.         self.batch_size = batch_size  
  12.         self.penalty = penalty  
  13.         self.anneal = anneal  
  14.           
  15.         if w is None:  
  16.             self.w = np.random.random((self.n_visible, self.n_hidden)) * 0.1  
  17.         if v_bias is None:  
  18.             self.v_bias = np.zeros((1self.n_visible))  
  19.         if h_bias is None:  
  20.             self.h_bias = np.zeros((1self.n_hidden))  
  21.     def sigmod(self, z):  
  22.         return 1.0 / (1.0 + np.exp( -z ))  
  23.   
  24.     def forward(self, vis):  
  25.         #if(len(vis.shape) == 1):  
  26.             #vis = np.array([vis])  
  27.         #vis = vis.transpose()  
  28.         #if(vis.shape[1] != self.w.shape[0]):  
  29.     vis = vis.transpose()  
  30.           
  31.         pre_sigmod_input = np.dot(vis, self.w) + self.h_bias  
  32.         return self.sigmod(pre_sigmod_input)  
  33.       
  34.     def backward(self, vis):  
  35.         #if(len(vis.shape) == 1):  
  36.             #vis = np.array([vis])  
  37.         #vis = vis.transpose()  
  38.         #if(vis.shape[0] != self.w.shape[1]):  
  39.         back_sigmod_input = np.dot(vis, self.w.transpose()) + self.v_bias  
  40.         return self.sigmod(back_sigmod_input)  
  41.     def batch(self):  
  42.           
  43.         eta = 0.1  
  44.         momentum = 0.5  
  45.     d, N = self.x.shape  
  46.           
  47.         num_batchs = int(round(N / self.batch_size)) + 1  
  48.         groups = np.ravel(np.repeat([range(0, num_batchs)], self.batch_size, axis = 0))  
  49.         groups = groups[0 : N]  
  50.         perm = range(0, N)  
  51.         random.shuffle(perm)  
  52.         groups = groups[perm]  
  53.         batch_data = []  
  54.         for i in range(0, num_batchs):  
  55.             index = groups == i  
  56.             batch_data.append(self.x[:, index])  
  57.         return batch_data  
  58.     def rbmBB(self, x):  
  59.     self.x = x  
  60.     eta = 0.1  
  61.     momentum = 0.5  
  62.     W = self.w  
  63.     b = self.h_bias  
  64.     c = self.v_bias  
  65.     Wavg = W  
  66.     bavg = b  
  67.     cavg = c  
  68.     Winc  = np.zeros((self.n_visible, self.n_hidden))  
  69.     binc = np.zeros(self.n_hidden)  
  70.     cinc = np.zeros(self.n_visible)  
  71.     avgstart = self.max_epoch - 5;  
  72.         batch_data = self.batch()  
  73.         num_batch = len(batch_data)  
  74.           
  75.         oldpenalty= self.penalty  
  76.     t = 1  
  77.     errors = []  
  78.         for epoch in range(0self.max_epoch):  
  79.             err_sum = 0.0  
  80.             if(self.anneal):  
  81.                 penalty = oldpenalty - 0.9 * epoch / self.max_epoch * oldpenalty  
  82.               
  83.             for batch in range(0, num_batch):  
  84.                 num_dims, num_cases = batch_data[batch].shape  
  85.                 data = batch_data[batch]  
  86.                 #forward  
  87.                 ph = self.forward(data)  
  88.                 ph_states = np.zeros((num_cases, self.n_hidden))  
  89.                 ph_states[ph > np.random.random((num_cases, self.n_hidden))] = 1  
  90.                   
  91.                 #backward  
  92.                 nh_states = ph_states  
  93.                 neg_data = self.backward(nh_states)  
  94.                 neg_data_states = np.zeros((num_cases, num_dims))  
  95.                 neg_data_states[neg_data > np.random.random((num_cases, num_dims))] = 1  
  96.                   
  97.                 #forward one more time  
  98.         neg_data_states = neg_data_states.transpose()  
  99.                 nh = self.forward(neg_data_states)  
  100.                 nh_states = np.zeros((num_cases, self.n_hidden))  
  101.                 nh_states[nh > np.random.random((num_cases, self.n_hidden))] = 1  
  102.           
  103.                 #update weight and biases  
  104.                 dW = np.dot(data, ph) - np.dot(neg_data_states, nh)  
  105.                 dc = np.sum(data, axis = 1) - np.sum(neg_data_states, axis = 1)  
  106.                 db = np.sum(ph, axis = 0) - np.sum(nh, axis = 0)  
  107.                 Winc = momentum * Winc + eta * (dW / num_cases - self.penalty * W)  
  108.                 binc = momentum * binc + eta * (db / num_cases);  
  109.         cinc = momentum * cinc + eta * (dc / num_cases);  
  110.         W = W + Winc  
  111.         b = b + binc  
  112.         c = c + cinc  
  113.           
  114.         self.w = W  
  115.         self.h_bais = b  
  116.         self.v_bias = c  
  117.         if(epoch > avgstart):  
  118.             Wavg -= (1.0 / t) * (Wavg - W)  
  119.             cavg -= (1.0 / t) * (cavg - c)  
  120.             bavg -= (1.0 / t) * (bavg - b)  
  121.             t += 1  
  122.         else:  
  123.             Wavg = W  
  124.             bavg = b  
  125.             cavg = c  
  126.         #accumulate reconstruction error  
  127.         err = norm(data - neg_data.transpose())  
  128.   
  129.         err_sum += err  
  130.         print epoch, err_sum  
  131.         errors.append(err_sum)  
  132.     self.errors = errors  
  133.     self.hiden_value = self.forward(self.x)  
  134.       
  135.     h_row, h_col = self.hiden_value.shape  
  136.     hiden_states = np.zeros((h_row, h_col))  
  137.     hiden_states[self.hiden_value > np.random.random((h_row, h_col))] = 1  
  138.     self.rebuild_value = self.backward(hiden_states)  
  139.       
  140.     self.w = Wavg  
  141.     self.h_bais = b  
  142.     self.v_bias = c  
  143.     def visualize(self, X):  
  144.     D, N = X.shape  
  145.     s = int(np.sqrt(D))  
  146.     if s == int(np.floor(s)):  
  147.         num = int(np.ceil(np.sqrt(N)))  
  148.         a = np.zeros((num*s + num + 1, num * s + num + 1)) - 1.0  
  149.         x = 0  
  150.         y = 0  
  151.         for i in range(0, N):  
  152.         z = X[:,i]  
  153.         z = z.reshape(s,s,order='F')  
  154.           
  155.         z = z.transpose()  
  156.         a[x*s+1+x - 1:x*s+s+x , y*s+1+y - 1:y*s+s+y ] = z  
  157.         x = x + 1  
  158.         if(x >= num):  
  159.             x = 0  
  160.             y = y + 1  
  161.         d = True  
  162.     else:  
  163.         a = X  
  164.     return a  
  165. def readData(path):  
  166.     data = []  
  167.     for line in open(path, 'r'):  
  168.     ele = line.split(' ')  
  169.     tmp = []  
  170.     for e in ele:  
  171.         if e != '':  
  172.         tmp.append(float(e.strip(' ')))  
  173.     data.append(tmp)  
  174.     return data  
  175.   
  176. if __name__ == '__main__':  
  177.     data = readData('data.txt')  
  178.     data = np.array(data)  
  179.     data = data.transpose()  
  180.     rbm = Rbm(784100,max_epoch = 50)  
  181.     rbm.rbmBB(data)  
  182.       
  183.     a = rbm.visualize(data)  
  184.     fig = plt.figure(1)  
  185.     ax = fig.add_subplot(111)  
  186.     ax.imshow(a)  
  187.     plt.title('original data')  
  188.       
  189.     rebuild_value = rbm.rebuild_value.transpose()  
  190.     b = rbm.visualize(rebuild_value)  
  191.     fig = plt.figure(2)  
  192.     ax = fig.add_subplot(111)  
  193.     ax.imshow(b)  
  194.     plt.title('rebuild data')  
  195.       
  196.     hidden_value = rbm.hiden_value.transpose()  
  197.     c = rbm.visualize(hidden_value)  
  198.     fig = plt.figure(3)  
  199.     ax = fig.add_subplot(111)  
  200.     ax.imshow(c)  
  201.     plt.title('hidden data')  
  202.   
  203.     w_value = rbm.w  
  204.     d = rbm.visualize(w_value)  
  205.     fig = plt.figure(4)  
  206.     ax = fig.add_subplot(111)  
  207.     ax.imshow(d)  
  208.     plt.title('weight value(w)')  
  209.     plt.show()  
程序中数据下载地址为: http://download.csdn.net/detail/zc02051126/5845977
产生的结果图片如下:



数据解释:

程序中变量data存储了数据,data的维数为784x5000,每一列代表一幅手写数字的图像数据,每一列中包括了784个像素,把这784个像素转化成28X28的矩阵数据,显示出来即可看出对应的数字,以第0列的数据为例,其手写数字为


实现的代码为:

[python]  view plain copy 在CODE上查看代码片 派生到我的代码片
  1. c = data[:,0]  
  2. d = c.reshape(28,28,order='F')  
  3. d = d.transpose()  
  4. plt.imshow(d)  
  5. plt.show()  

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值