机器学习
土星人马
这个作者很懒,什么都没留下…
展开
-
L2 norm L1 norm
L2 norm L1 norm什么意思L2 norm就是欧几里德距离 L1 norm就是绝对值相加,又称曼哈顿距离 搞统计的人总是喜欢搞什么“变量选择”,变量选择实际上的 限制条件是L0 Norm,但这玩艺不好整,于是就转而求L1 Norm(使用均方误差,就是Lasso ,当然在Lasso出来之前搞信号处理的就有过类似的工作),Bishop在书里对着RVM好一通 吹牛,其实RVM只是隐含着去原创 2013-11-25 15:22:13 · 1484 阅读 · 0 评论 -
LEE
LLE Algorithm and Implement in Matlab《数学建模案例分析》的大作业用LLE算法,但是原作者网站上提供的源代码有些问题,主要是因为不同版本的Matlab,内置函数eigs返回的特征向量的顺序不同:老版本对应的特征值是升序,而新版本的是降序。在这个问题中,0总是特征值,对应的特征向量为(1,1,…,1),这不是我们要的(如果把它放进来,则用它转载 2014-04-16 14:07:59 · 658 阅读 · 0 评论 -
EM算法
(EM算法)The EM Algorithm 转自1. Jensen不等式 回顾优化理论中的一些概念。设f是定义域为实数的函数,如果对于所有的实数x,,那么f是凸函数。当x是向量时,如果其hessian矩阵H是半正定的(),那么f是凸函数。如果或者,那么称f是严格凸函数。 Jensen不等式表述如下: 如果f是凸函数,X是随机变量,那么转载 2014-08-21 14:52:06 · 690 阅读 · 0 评论