非参数统计成对数据检验——python代码及示例

 非参数统计成对数据检验,利用Wilcoxon符号秩检验和符号检验两种方法。

首先确保环境内安装scipy、numpy库,如未安装利用:pip install +库名进行安装

from scipy.stats import wilcoxon
# 假设我们有两组样本数据old method和new method,每个样本有8个观测值
old = [572, 574, 631, 591, 612, 592, 571, 634]
new = [609, 596, 641, 603, 628, 611, 599, 660]
# 使用Wilcoxon符号秩检验计算p值
statistic, p_value = wilcoxon(old, new, alternative="less")
# 如进行单侧检验,需要将Wilcoxon函数的alternative参数设置为'less'或'greater'
# 如进行双侧检验,需要将Wilcoxon函数的alternative参数设置为'two-sided'
print("Wilcoxon符号秩检验结果:")
print("统计量W:", statistic)
print("p值:", p_value)
# 这个例子中,p值为0.0039<0.05,因此拒绝零假设(即认为两组样本有显著差异)

import numpy as np
def sign_test_new(x, y, alpha=0.05):
    """    使用符号检验进行成对数据的非参数检验
    :param x: 第一个样本数组
    :param y: 第二个样本数组
    :param alpha: 显著性水平,默认为0.05
    :return: 是否拒绝原假设,p值    """
    n = len(x)
# 计算差值
    d = x - y
# 计算正差值和负差值的个数
    positive_count = np.sum(d > 0)
    negative_count = np.sum(d < 0)
# 计算k统计量
    k = min(positive_count,negative_count)
    print("\n符号检验结果:")
    print("k统计量:", k)
# 计算p值
    def multiplication(i):
        sum2 = 1
        for j in range(1, i + 1):
            sum2 *= j  # 使用迭代的方法对阶乘进行计算,
        return sum2
    mul = 0
    for i in range(k+1):
        mul += multiplication(i)
    p = (1/2) ** n * mul
# 判断是否拒绝原假设
    if p < alpha:
        return True, p
    else:
        return Flase, p
# 示例
x = np.array([572, 574, 631, 591, 612, 592, 571, 634])
y = np.array([609, 596, 641, 603, 628, 611, 599, 660])
reject, p = sign_test_new(x, y)
print("p值:{:.8f}".format(p))
print("是否拒绝原假设:", reject)

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
K近邻算法是一种简单易用的机器学习算法,它可以用于分类和回归问题。在分类问题中,K近邻算法通过计算待分类样本与训练集中每个样本的距离,找到距离待分类样本最近的K个样本,然后根据这K个样本的类别进行投票,将待分类样本归为票数最多的类别。在回归问题中,K近邻算法通过计算待预测样本与训练集中每个样本的距离,找到距离待预测样本最近的K个样本,然后根据这K个样本的值进行加权平均,得到待预测样本的预测值。 下面是一个使用K近邻算法进行乳腺癌检测分类的示例代码: ```python import pandas as pd from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import accuracy_score # 读取数据集 data = pd.read_csv("breast_cancer.csv") # 将类别变量转换为数值变量 data['diagnosis'] = data['diagnosis'].map({'M': 1, 'B': 0}) # 将特征变量和类别变量分开 X = data.drop(['diagnosis'], axis=1) y = data['diagnosis'] # 将数据集分为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) # 创建K近邻分类器 knn = KNeighborsClassifier(n_neighbors=5) # 训练K近邻分类器 knn.fit(X_train, y_train) # 在测试集上进行预测 y_pred = knn.predict(X_test) # 计算预测准确率 accuracy = accuracy_score(y_test, y_pred) print("预测准确率:", accuracy) ``` 上述代码使用了sklearn库中的KNeighborsClassifier类来创建K近邻分类器,并使用accuracy_score函数计算预测准确率。需要注意的是,K近邻算法对数据的缩放敏感,因此在使用K近邻算法之前,通常需要对数据进行缩放处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

九九jiujiu

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值