自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

转载 共轭检验

如果你读过贝叶斯学习方面的书或者论文,想必是知道共轭先验这个名词的。现在假设你闭上眼睛,你能准确地说出共轭分布是指哪个分布和哪个分布式共轭的吗?我之前就常常把这个关系弄错,现在记录如下,以加强印象。贝叶斯学派和频率学派的区别之一是特别重视先验信息对于inference的影响,而引入先验信息的手段有“贝叶斯原则“(即把先验信息当着均匀分布)等四大类其中有重要影响的一类是:共轭先验

2013-06-26 01:14:52 979

转载 Jacobian矩阵和Hessian矩阵

1. Jacobian转载自:http://jacoxu.com/?p=146在向量分析中, 雅可比矩阵是一阶偏导数以一定方式排列成的矩阵, 其行列式称为雅可比行列式. 还有, 在代数几何中, 代数曲线的雅可比量表示雅可比簇:伴随该曲线的一个代数群, 曲线可以嵌入其中. 它们全部都以数学家卡尔·雅可比(Carl Jacob, 1804年10月4日-1851年2月18日)命名;英文雅可比

2013-06-26 00:26:05 22279 1

转载 (EM算法)The EM Algorithm

转载自:http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html      EM是我一直想深入学习的算法之一,第一次听说是在NLP课中的HMM那一节,为了解决HMM的参数估计问题,使用了EM算法。在之后的MT中的词对齐中也用到了。在Mitchell的书中也提到EM可以用于贝叶斯网络中。下面主要介绍EM的整个推导过程。

2013-06-26 00:21:56 1057

转载 高斯混合模型

本文就高斯混合模型(GMM,Gaussian Mixture Model)参数如何确立这个问题,详细讲解期望最大化(EM,Expectation Maximization)算法的实施过程。单高斯分布模型GSM多维变量X服从高斯分布时,它的概率密度函数PDF为:x是维度为d的列向量,u是模型期望,Σ是模型方差。在实际应用中u通常用样本均值来代替,Σ通常用样本方差来代替。很容易

2013-06-25 15:53:15 1077

转载 先验概率、后验概率与似然估计

转载自:http://hi.baidu.com/hi9394/item/5953948a4a2365cab0715407先验概率、后验概率与似然估计本文假设大家都知道什么叫条件概率了(P(A|B)表示在B事件发生的情况下,A事件发生的概率)。先验概率和后验概率教科书上的解释总是太绕了。其实举个例子大家就明白这两个东西了。假设我们出门堵车的可能因素有两个(就是假设而已,别当真):

2013-06-25 15:12:54 1227

转载 使用X-UA-Compatible来设置IE浏览器兼容模式

转载自:http://www.cnblogs.com/nidilzhang/archive/2010/01/09/1642887.html文件兼容性用于定义让IE如何编译你的网页。此文件解释文件兼容性,如何指定你网站的文件兼容性模式以及如何判断一个网页该使用的文件模式。前言为了帮助确保你的网页在所有未来的IE版本都有一致的外观,IE8引入了文件兼容性。在IE6中引入一个

2013-06-14 17:01:39 769

转载 浅谈Feature Scaling

转自:http://blog.sina.com.cn/s/blog_7f2889330101awle.html定义:Feature scaling is a method used to standardize the range of independent variables or features of data. In data processing, it is also known

2013-06-04 17:00:47 8662 2

转载 机器学习入门:Linear Regression与Normal Equation

原文转载自:http://blog.csdn.net/xiazdong/article/details/7950087本文会讲到: (1)另一种线性回归方法:Normal Equation;(2)Gradient Descent与Normal Equation的优缺点;前面我们通过Gradient Descent的方法进行了线性回归,但是梯度下降有如下特

2013-06-04 16:54:35 1200

转载 机器学习入门:线性回归及梯度下降

写的非常好的一个教程,本来在看龙星课程的Machine Learning,但是里面算法讲完没有对如何实现进一步的讲解,不过在这个教程里描述的非常清晰了,配图也超给力。公式里好像有一些小错误,比如在多变量线性回归模型里,损失函数的参数不应该就只有theta0和theta1了,应该是个theta集合。本文转自:http://blog.csdn.net/xiazdong/article/

2013-06-04 16:15:27 1070

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除