![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
CatCherry
这个作者很懒,什么都没留下…
展开
-
奇异值分解
奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上的特征是有着无数种的,之所以能这么描述,是因为人天生就有着非常好的抽取重要特征的能力,让机...转载 2019-08-27 19:53:33 · 1044 阅读 · 0 评论 -
大数定理与中心极限定理
大数定律定义:理解: 可以用样本均值估计总体分布的均值(频率趋近于概率)举例: 抛N次硬币,当N趋近于无穷大时,正面出现的频率等于正面出现的概率。中心极限定理定义:(林德贝格-勒维中心极限定理)理解:1、样本的平均值约等于总体的平均值。2、不管总体是什么分布,任意一个总体的样本平均值都会围绕在总体的整体平均值周围,并且呈正态分布。举...原创 2019-09-02 15:24:46 · 1080 阅读 · 0 评论 -
熵在机器学习中的应用
1 信息量首先是信息量。假设我们听到了两件事,分别如下:事件A:巴西队进入了2018世界杯决赛圈。事件B:中国队进入了2018世界杯决赛圈。仅凭直觉来说,显而易见事件B的信息量比事件A的信息量要大。究其原因,是因为事件A发生的概率很大,事件B发生的概率很小。所以当越不可能的事件发生了,我们获取到的信息量就越大。越可能发生的事件发生了,我们获取到的信息量就越小。那么信息量应该和事件发生的概...原创 2019-09-03 14:55:41 · 1018 阅读 · 0 评论