- 博客(6)
- 问答 (1)
- 收藏
- 关注
原创 deep learning 初记
为了理解为什么大数据需要深度模型,先举一个例子。语音识别已经是一个大数据的机器学习问题,在其声学建模部分,通常面临的是十亿到千亿级别的训练样本。在Google的一个语音识别实验中,发现训练后的DNN对训练样本和测试样本的预测误差基本相当。这是非常违反常识的,因为通常模型在训练样本上的预测误差会显著小于测试样本。因此,只有一个解释,就是由于大数据里含有丰富的信息维度,即便是DNN这样的高容量复杂模型
2014-09-19 10:53:39 566
原创 因子分析杂记
第一,它假定所有的因子(旋转后) 都会影响测度项。在实际研究中,我们往往会假定一个因子之间没有因果关系,所以可能不会影响另外一个因子的测度项。第二,探索性因子分析假定测度项残差之间是相互独立的。实际上,测度项的残差之间可以因为单一方法偏差、子因子等因素而相关。第三,探索性因子分析强制所有的因子为独立的。这虽然是求解因子个数时不得不采用的机宜之计,却与大部分的研究模型不符。最明显的是,自变量与应变量
2014-09-14 17:25:30 857
原创 EM杂记
The EM-algorithm is also reminiscent of the k-mean clustering algorithm ,except that instead of the 'hard' cluste
2014-09-13 16:41:52 393
转载 图˙谱˙马尔可夫过程˙聚类结构----by林达华
这又是林达华的一篇好文,将四个概念在某个方面解释的很清楚,特别是特征值和特征向量的意义,让人豁然开朗。 原文已经找不到了,好像是因为林达华原来的live博客已经失效,能找到的只有网上转载的文章(本来还想把他的博客看个遍)。林本人的数学功底之强,有时候会让我们这些搞CV、ML的人趁还在学校,重头把一些数学学一遍。不过想想学校所开设的课程实在是屎(老师和学生们都是混),也就想想罢了。
2014-09-11 09:55:36 665
空空如也
随机数是怎么样产生的?
2015-01-19
TA创建的收藏夹 TA关注的收藏夹
TA关注的人