Python与Pyspark统计分析

本文探讨了在大数据背景下,Python与Pyspark进行统计分析的区别和语法使用。在Python中,通过dfs.describe()等方法进行统计,而在Pyspark中,使用describe()和summary()进行值统计分析,同时介绍了columns中值出现次数的统计方法和分位数计算。文章强调了在大数据量下,Pyspark的优势以及在选择统计方法时需考虑的业务背景。
摘要由CSDN通过智能技术生成

全量统计分析

对于数据分析、数据挖掘、人工智能等领域,现在Python占据了领头军,但是随着大数据的到来,现在很多新科技型、网路型、传统型等互联网模式,都陆陆续续使用了Spark或Flink的步伐,为解决大数据疑难问题,求贤若渴。以下,我将会体现部分区别及语法使用。

Python 统计分析

1、统计分析

import numpy as np
import pandas as pd
sizes=(8,5)
df=pd.DataFrame(np.random.randint(0,20,size=sizes),columns=["col_{}".format(i) for i in range(sizes[1])])  # 随机产生一个df
arr=[[9,1,5,2,19],
    [18,9,19,19,14],
    [7,12,2,1,10],
    [1,8,12,5,3],
    [9,6,3,4,13],
    [9,0,11,5,9],
    [12,16,11,3,19],
    [2,1,4,3,1]]
dfs=pd.DataFrame(arr,columns=["col_{}".format(i) for i in range(sizes[1])])

结果如下图所示:
dfs结果

1.1 dfs.describe()
res=df.describe()  # 对df做出统计分析【"count","mean","std","min","max","25%","50%","75%"】
print(res)

结果如下图所示:
describe()统计分析

1.2 对全部维度进行值得统计
mode_counts=df.value_counts()  # 对整体数据出现次数做出统计
print(mode_counts)

结果如下图所示:
在这里插入图片描述

1.3 对每个index中的值进行统计出现的次数
mode_dict={
   }
for col in df.columns:
    res=list(dfs[col].value_counts().items())
    mode_dict.update({
   col:res})
print(mode_dict)
# 结果如下
{
   
    'col_0': [(9, 3), (7, 1), (2, 1), (12, 1), 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值