极大似然估计与回归
极大似然估计
先简单说下似然(likelihood)和概率(probability)的区别,两者都是对可能性的表示。概率是在给定了一定参数值后,表示了一件事物发生的可能性;而似然则反其道而行之,是在给定了一系列结果后,表示了某一组参数值的可能性。那么最大似然估计的思想,就是在给定了一组结果后哪一组参数的可能性最大;反过来说,就是使用这样一组参数,出现给定结果的可能性最大。即条件概率 P(X|Θ)=L(Θ|X) 。
根据机器学习的目的,我们就是在找寻一组参数,这组参数可以让机器取代人工进行分类、拟合等功能,从定义的角度来看,极大似然估计似乎正是我们所需要的。下面我们就用极大似然估计的方法来重新学习下线性回归和逻辑回归(LR)。
线性回归
最小二乘法
想必大家已经对线性回归足够的了解,再简单回顾一下,给定一组样本 X 和结果
根据上面的回顾,我们很容易得到常用的代价函数:
而我们接下来要做的就是最小化这个代价函数从而能够找到一组参数 Θ 使得总误差最小。
极大似然法
那么我们现在就从极大似然估计的角度来看一下线性回归的本质。现在我们假设 Yi=XTiΘ+ϵi=Yi^+ϵi 。 这个式子中 ϵ 代表着误差。且 ϵi∼N(0,σ2) 。 这个条件也就解释了为什么线性回归是 高斯模型 的。
现在我们来看一下我们要求的 P(Yi