自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Jack_H的专栏

前无古人,后无来者。念天地之悠悠,独怆然而涕下!

  • 博客(6)
  • 问答 (1)
  • 收藏
  • 关注

原创 HMM杂记

在接触了GMM之后, 选择将HMM进行了了解,网上的基础资料还是挺多的,

2014-09-27 20:29:18 584

原创 deep learning 初记

为了理解为什么大数据需要深度模型,先举一个例子。语音识别已经是一个大数据的机器学习问题,在其声学建模部分,通常面临的是十亿到千亿级别的训练样本。在Google的一个语音识别实验中,发现训练后的DNN对训练样本和测试样本的预测误差基本相当。这是非常违反常识的,因为通常模型在训练样本上的预测误差会显著小于测试样本。因此,只有一个解释,就是由于大数据里含有丰富的信息维度,即便是DNN这样的高容量复杂模型

2014-09-19 10:53:39 566

原创 因子分析杂记

第一,它假定所有的因子(旋转后) 都会影响测度项。在实际研究中,我们往往会假定一个因子之间没有因果关系,所以可能不会影响另外一个因子的测度项。第二,探索性因子分析假定测度项残差之间是相互独立的。实际上,测度项的残差之间可以因为单一方法偏差、子因子等因素而相关。第三,探索性因子分析强制所有的因子为独立的。这虽然是求解因子个数时不得不采用的机宜之计,却与大部分的研究模型不符。最明显的是,自变量与应变量

2014-09-14 17:25:30 857

原创 EM杂记

The EM-algorithm is also reminiscent of the k-mean clustering algorithm ,except that instead of the 'hard' cluste

2014-09-13 16:41:52 393

转载 图˙谱˙马尔可夫过程˙聚类结构----by林达华

这又是林达华的一篇好文,将四个概念在某个方面解释的很清楚,特别是特征值和特征向量的意义,让人豁然开朗。        原文已经找不到了,好像是因为林达华原来的live博客已经失效,能找到的只有网上转载的文章(本来还想把他的博客看个遍)。林本人的数学功底之强,有时候会让我们这些搞CV、ML的人趁还在学校,重头把一些数学学一遍。不过想想学校所开设的课程实在是屎(老师和学生们都是混),也就想想罢了。

2014-09-11 09:55:36 665

原创 canopy杂记

看过很多算法的描述过程,没有几个令人满意的,太过粗糙,

2014-09-06 15:09:33 756

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除