- 博客(7)
- 资源 (7)
- 收藏
- 关注
转载 为什么对高斯分布的方差的极大似然估计是有偏的?
本文要证明为什么对高斯分布的方差的极大似然估计是有偏的。同时,也说明为什么求样本方差时,分母是N-1而不是N。首先,明白两点,(1)极大似然法得到的高斯方差是什么形式(2)什么是有偏。(1)先说第一个问题,用极大似然估计得到的高斯方差是什么。假设有n个符合高斯独立同分布的观测值,我们要根据这些样本值估计正态分布的期望和方差。以
2015-08-27 16:16:53 1758
转载 集合竞价--CCF
##问题描述 某股票交易所请你编写一个程序,根据开盘前客户提交的订单来确定某特定股票的开盘价和开盘成交量。 该程序的输入由很多行构成,每一行为一条记录,记录可能有以下几种: 1. buy p s 表示一个购买股票的买单,每手出价为p,购买股数为s。 2. sell p s 表示一个出售股票的卖单,每手出价为p,出售股数为s。 3. cancel i表示撤销第i行的记录
2015-08-24 11:13:23 1797 2
转载 bias和variance
在A Few Useful Thingsto Know about Machine Learning中提到,可以将泛化误差(gener-alization error)分解成bias和variance理解。 Bias: a learner’s tendency to consistently learn the same wrong thing,即度量了某种学习算法的平均估计结果所
2015-08-24 09:14:50 627
转载 机器学习降维算法三:LLE (Locally Linear Embedding) 局部线性嵌入
LLE Locally linear embedding(LLE)[1] 是一种非线性降维算法,它能够使降维后的数据较好地保持原有流形结构。LLE可以说是流形学习方法最经典的工作之一。很多后续的流形学习、降维方法都与LLE有密切联系。见图1,使用LLE将三维数据(b)映射到二维(c)之后,映射后的数据仍能保持原有的数据流形(红色的点互相接近,蓝色的也互相接近),说明LLE有效
2015-08-21 10:07:42 780
转载 机器学习降维算法二:LDA(Linear Discriminant Analysis)
很多基础知识有些遗忘了,也算作是一种复习。我尽量推导的关键的地方写写,建议大家还是要手动推一推公式增加理解。Linear Discriminant Analysis (也有叫做Fisher Linear Discriminant)是一种有监督的(supervised)线性降维算法。与PCA保持数据信息不同,LDA是为了使得降维后的数据点尽可能地容易被区分!假设原始数据表示为X,
2015-08-21 10:05:42 725
转载 机器学习降维算法一:PCA (Principal Component Analysis)
引言:机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。当然还有一大类方法本质上也是做了降维,叫做feature
2015-08-21 10:02:23 577
转载 字符串匹配的KMP算法
字符串匹配的KMP算法作者: 阮一峰日期: 2013年5月 1日字符串匹配是计算机的基本任务之一。举例来说,有一个字符串"BBC ABCDAB ABCDABCDABDE",我想知道,里面是否包含另一个字符串"ABCDABD"?许多算法可以完成这个任务,Knuth-Morris-Pratt算法(简称KMP)是最常
2015-08-09 10:41:52 358
电子设计大赛作品包含33个作品
2010-08-25
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人