参数估计之区间估计(统计知识)以及Python代码

区间估计定义:

区间估计(interval estimate)
在点估计的基础上,根据样本统计量的抽样分布可以对样本统计量与总体样本的真实参数的接近程度求出一个概率度量,在此概率下给出总体参数估计的一个可信的区间范围。与区间估计常常一同出现的,还有置信区间的概念。
 

通俗解释:

对于区别点估计和区间估计,有个很通俗的解释:

我对待定参数只估计一个值(点估计),只笃定了这个值是最精确的;
我给出待定参数的一个估计范围(区间估计),猜测这个区间内至少有一个值使得待定参数最接近于真实值;
对于这个区间,给出一个概率(置信度)来说明这个区间内有多大的把握存在至少有一个值使得待定参数最接近于真实值;给出置信度的区间估计就是置信区间。
 

 置信区间的定义:

 

教材实例以及推理过程:

 

 

 

 

 

 图源于教材

Python代码部分(总体均值的置信区间估计)

 1:统计学中以大于30的抽样容量为大样本

2:样本容量大于30,由中心极限定理可将均值看做符合正态分布

def mean_interval(mean=None, std=None, sig=None, n=None, confidence=0.95):
    """
    mean:样本均值
    std:样本标准差
    sig: 总体方差
    n:   样本量
    confidence:置信水平
    功能:构建总体均值的置信区间
    """
    alpha = 1 - confidence
    z_score = scipy.stats.norm.isf(alpha / 2)  # z分布临界值
    t_score = scipy.stats.t.isf(alpha / 2, df = (n-1) )  # t分布临界值
   
    if n >= 30 and sig != None:
        me = z_score*sig / np.sqrt(n)  # 误差
        lower_limit = mean - me
        upper_limit = mean + me
        
    if n >= 30 and sig == None:
        me = z_score*std / np.sqrt(n)
        lower_limit = mean - me
        upper_limit = mean + me
        
    if n < 30 and sig == None:
        me = t_score*std / np.sqrt(n)
        lower_limit = mean - me
        upper_limit = mean + me
    
    return (round(lower_limit, 3), round(upper_limit, 3))
 
mean_interval(mean=8900, std=None, sig=500, n=35, confidence=0.95)
mean_interval(mean=8900, std=500, sig=None, n=35, confidence=0.90)
mean_interval(mean=8900, std=500, sig=None, n=35, confidence=0.99)

实例代码运算

 

 

 代码解答:

课本答案:

 代码解答:

 

  • 5
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
参数估计Python中通常用于机器学习统计分析,特别是在使用概率模型或拟合数据分布时。一种常见的方法是最大似然估计(Maximum Likelihood Estimation, MLE),在scikit-learn库中就有现成的实现。这里是一个简单的例子,展示如何使用sklearn的`MLEstimator`接口进行参数估计: ```python # 导入所需库 from sklearn import datasets import numpy as np from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression # 加载数据集(这里以鸢尾花数据集为例) iris = datasets.load_iris() X = iris.data y = iris.target # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 创建Logistic Regression分类器,使用最大似然估计 model = LogisticRegression(solver='lbfgs', fit_intercept=False) # 使用'lbfgs'优化器进行参数估计 # 训练模型 model.fit(X_train, y_train) # 参数估计结果 theta = model.coef_ # 权重参数 intercept = model.intercept_ if 'fit_intercept' in model.get_params() else None # 偏置项,某些模型不包含偏置 print("参数估计结果:") print(f"权重参数(系数):{theta}") print(f"偏置项(如有):{intercept}") # 最大似然估计的相关问题是: 1. 除了逻辑回归,哪些机器学习模型也常用最大似然估计? 2. 如何在Python中使用其他优化算法(如梯度下降)进行参数估计? 3. 在实际应用中,如何处理似然函数为负数或复杂模型的参数估计问题? ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值