使用python进行数据抽样

工作中使用hive进行数据预处理,有时候需要对数据抽样来做一些评估分析。下面记录通过python进行分层随机抽样的过程。

使用python连接数据库读取数据请参考:使用python连接数据库

import sqlalchemy
import pandas as pd
import numpy as np

 
# 1. 连接hive获取数据
def get_hive_data(sql):
    user_name = "hive引擎地址"
    hive_engine = sqlalchemy.create_engine(user_name)
    data = pd.read_sql(sql, hive_engine)
    print ("\n数据读取完毕\n")
    return data


# 2. 确定抽样字段(入参项及其他变量字段), 读取数据
sql = """ select sgroup, var1, var2, var3 from table1 """
df = get_hive_data(sql)

# 3. 确认分层抽样的样本量。假设按group(枚举值grp1,grp2,grp3)分组抽样,每组抽样量如下:
sgroup  实际统计量 抽样量    权重
grp1     1000       500     2
grp2     800        200     4
grp3     600        150     4
# 备注:此处的抽样量不是分组的实际统计量,并且抽样量要小于实际统计量

# 4. 抽样代码
typicalNdict = {  "grp1":500
                 ,"grp2":200
                 ,"grp3":150
                }

# 计算分组的实际统计量,注意count()计数会过滤掉空值,要选择无空值的变量进行统计
# 最后出来的各分组统计之和要等于df.shape[0]
df_all = df.groupby("sgroup", as_index=False)['var1'].count() 
df_all = df_all.rename(columns={'var1':"grp_cnt"} # 重命名

typicalNdict_df = pd.DataFrame({'sgroup' :list(typicalNdict.keys()), 
                               's_grp_cnt':list(typicalNdict.values())
                               })
sample_df = df.merge(df_all, how='inner', on=['sgroup']).merge(typicalNdict_df , how='inner', on=['sgroup'])

def typicalSampling(group, typicalNdict):
    name = group.name
    n = typicalNdict[name]
    return group.sample(n=n)

np.random.seed(seed=3032) # 设置随机数
rslt= df_sample.groupby('sgroup', group_keys=False).apply(typicalSampling, typicalNdict)

# weight 是权重,方便后面计算时对各类指标进行还原
rslt['weight']=rslt['grp_cnt']/rslt['s_grp_cnt'] 

rslt.insert(0, 'id', np.arange(1, len(rslt)+1) # 插入id
rslt.to_excel('sample_rslt.xlsx', index=False)

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值