从这一篇开始,打算系统的回顾一下机器学习的内容,以应对面试。
由于两次面试都问到了逻辑回归,于是打算从逻辑回归开始。
作为逻辑回归的基础,先从极大似然估计开始吧。
点估计的方法
两种常用的方法:矩法,极大似然估计发。
矩法
总体:X
样本观测值:
(X1,...,Xn)
样本原点矩:
Aj=1n∑n1Xji
因此,可以使用样本的原点矩对于参数进行预估
极大似然估计
极大似然估计建立在这样一种直观想法的基础上:假定一个随机试验有若干个可能的结果 (X1,...,Xn) 。如果在一次试验后出现了结果 Xi ,那么一般认为实验条件对“出现 Xi 有利”,即这个试验中“出现 Xi ”的概率(站在实验前的立场上考察)最大。
先以离散分布为例:
总体X服从某类离散型分布,它的概率函数为 f(x;θ),θ∈Θ , (X1,...,Xn) 是取自这个总体的一个样本,再一次试验中,获得样本的观测值 (x1,...,xn) 的概率为:
P(X1=x1,...,Xn=xn)=∏1nP(Xi=xi)=∏1nf(xi;θ)
θ 的取值毫无疑问会影响 f(xi;θ) 的大小。因此,可以将上述概率看做 θ 的函数,并称之为“似然函数”,记做 L(θ;x1,...,xn) ,适当的取 θ 使得 L(θ) 的值达到最大,即使得出现 {X1=x1,...,Xn=xn} 的概率最大。
一个简单的例子
设总体
X−B(1,p)
,p未知,
(X1=x1,...,Xn=xn)
是取自该总体的一个样本,总体X的概率函数为:
因此似然函数为:
为使得上式最大, ∂lnL(p)∂p=0 ,得到:
p=X¯¯¯