自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 pycaffe的小问题- -

Import caffe  出现如下问题: 」解决:  export PYTHONPATH=$CAFFE_HOME/python >>  ~/.bashrc  source ~/.bashrc千万千万别写成: export PYTHONPATH=$CAFFE_HOME/python:$PYTHONPATH吐槽一下:千万别在百度搜解决方法了,简直了。。。。还是直接导c

2016-12-18 21:38:19 220

原创 深度网络的学习问题

这这是一个4层网络随着BP算法每层激励输出的情况,对于这张图可以理解的信息如下:1 红线在前一百次的训练结果基本一致,可能的情况是第一层的权值变化太小,也就是说后向传播的误差信息很难反馈到这一层;2 绿线和蓝线的变化幅度反映了后向误差信息随着层数的增加,其变化越小;3 对于黑线的情况最奇怪:       (1)第一方差基本为0也就是说输入层的差异信息在抵达第4层时候基本就没有了

2016-11-11 15:39:38 277

原创 深度网络pre-train对于深度网络的意义

2016.10.111 pre-train 带来更好的优化还是更好的泛化?pre-train是一个寻网络权值初值的过程,将pre-train的结果作为BP算法的权值的初值,能够解决深度网络在非凸目标函数上陷入局部最优的问题。从这个角度理解更象是带来更好的优化能力。在带有pre-train的深度网络的泛化表现上不仅仅是训练误差很小,同时泛化误差也很小,下图可以看出带有pre-train的

2016-11-10 15:49:46 4806

原创 LDA之我见

本文纯粹出于个人理解,公式纯手打难免有误,不对的地方请指出。      LDA认为一个语料库中的某个文档w又一系列的主题z生成的,而这一系列的主题是潜在的不可见的,其实就是个混合模型:     在贝叶斯的理论框架之下,将z的参数也当作变量:     那么概率模型雏形就出来了,LDA是一个典型“词带”的模型,即对文档词w作条件独立假设:     其中

2016-09-23 15:30:52 268

原创 玻尔兹曼机(1)

本文是关于玻尔兹曼机的参数训练过程的介绍。因此基本知识请参照相关论文和博客介绍。        一个典型的玻尔兹曼机,可以表达成一个能量函数的指数形式,能量函数的具体表达式见网上其它的博客说明。这里简单记为:E(h,v)。v表示可视节点,h表示隐单元变量。那么一个玻尔兹曼机的概率表达式如下:           对于随机梯度下降,给定一个观测样本v’,那么似然函数为:   

2016-09-22 21:47:11 507

原创 变分推断

在机器学习中经常会遇到某个分布的期望的情况,简单的情况还好,但是一旦遇到难以计算或者估计的复杂分布,那么问题将变得难以处理。变分推断在机器学习上就是用来解决找到某种简单形式的分布来近似估计某个复杂分布的问题。

2016-09-13 14:30:44 2047 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除