PySpark DataFrame 查询操作

import findspark
from pyspark.pandas import isnull
from pyspark.sql.functions import length
from pyspark.sql.types import StructType, StructField, StringType

findspark.init()
from pyspark import SparkContext,SparkConf
from pyspark.sql import SparkSession

spark = SparkSession.\
    builder.\
    master("local").\
    appName ("Python Spark SQL Hive integration example").getOrCreate()


data=[[34,None,'Mary'],
      [24,89,'Alice'],
      [30,90,'Mark']]
df=spark.createDataFrame(data,['C1','C2','C3'])
#条件: C2不为空且C1大于25
df.where('C2 is not null and C1>25').show()
#条件: C2为空
df.where(isnull('C2')).show()
#条件: C2不为空且C3长度大于3
df.where(~isnull('C2')).where(length('C3')>3).show()
#条件: C2不为空或C1大于25
df.filter((~isnull('C2'))|(data('C1')>25)).show()
# 使用sql查询
# 创建临时表
df.createOrReplaceTempView("people")
# 查询全表--使用反射机制
spark.sql("select * from people")
# 查询条件
personDf=spark.sql("select * from people where C1=34")
# 转化为rdd再进行查询
personRdd=personDf.rdd.filter(lambda line:'Alice' in line)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值