极大似然估计_极大似然估计、迭代、收敛

极大似然估计(ML)是统计学中常用的一种参数估计方法,尤其在SEM中作为默认估计方式。它寻找使样本协方差矩阵与理论协方差矩阵最接近的参数值。由于多数似然函数没有解析解,通常采用迭代法,如Newton-Raphson算法,来求解。迭代过程依赖于收敛标准(stata默认为|FML(θi)-FML(θi+1)|<0.000001)、最大迭代次数(stata默认16000次)和合理初始值(如OLS估计值)。收敛性受到这三个因素的影响,合适的初始值能减少迭代次数并确保收敛。
摘要由CSDN通过智能技术生成

极大似然估计ML是stata给sem默认的估计方法。极大似然估计的逻辑是,在θ的一系列可能取值中,选取一个使似然函数值L(θ)最大的。它的似然函数为:

2e79b56de160e0c02bbb6b42c5ef951e.png

上式中,S是全部显变量组成的样本协方差矩阵。tr[SΣ-1(θ)]是矩阵SΣ-1(θ)的迹,即该矩阵的对角线元素之和。Log|Σ(θ)|是Σ(θ)的行列式的对数,Log|S|是矩阵S的行列式的对数,p、q分别是内生、外生显变量的个数。在大样本情况下,如果S与Σ(θ)越接近,则Log|Σ(θ)|与Log|S|越接近,而tr[SΣ-1(θ)]也越接近(p+q),则FML越小。如果S=Σ(θ),则FML=0。故而,使FML达到最小值的估计量称为θ的最大似然估计。

大多数似然函数并没有解析解,待估参数只能以似然函数的隐函数形式存在,只能用数值计算的方法求出其数值解或近似解。极大似然估计ML就没有解析解而只有数值解,使用迭代法来求解。迭代法(Iterative Method)是利用计算机运算速度快、适合做重复性操作的特点,让计算机对一组指令进行重复执行,在每次执行这组指令时,都从变量的一个初始值出发寻找一系列近似解来解决问题(一般是解方程或方程组)的过程。跟迭代法对应的是直接法

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值