sparksql读hdfs数据

通过pyspark模块,调用sparksql,读取hdfs目录数据,然后做统计。

参考:pyspark读取hdfs, python sparksql函数

from pyspark.sql import SQLContext
sc = SparkContext()
sqlcontext = SQLContext(sc)
#format后面为告诉程序读取csv格式,load后面为hdfs地址,hdfs后面跟着hadoop的名字,然后文件目录(这块有点懵,如果报错,跟着报错查修)
data = sqlcontext.read.format("com.databricks.spark.csv").\
    options(header="true",inferschema="true").\
    load("hdfs://cdsw1.richstone.com/test1/5min.csv")
data.show(5)

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark可以基于DataFrame和SparkSQLHDFS文件夹下的多个文件进行、写、join等操作。 首先,我们可以使用SparkSession来创建一个Spark应用程序,并HDFS文件夹下的多个文件: ``` from pyspark.sql import SparkSession spark = SparkSession.builder.appName("example").getOrCreate() df = spark.read.format("csv").option("header", "true").load("hdfs://path/to/folder/*.csv") ``` 上述代码中,我们使用了SparkSession来创建一个名为“example”的Spark应用程序,并使用`read`方法从HDFS文件夹中取所有以.csv结尾的文件,并将它们合并成一个DataFrame。 接下来,我们可以对DataFrame进行各种操作,例如过滤、聚合、排序等: ``` df_filtered = df.filter(df["age"] > 30) df_grouped = df.groupBy("gender").agg({"salary": "mean"}) df_sorted = df.sort(df["age"].desc()) ``` 上述代码中,我们使用了DataFrame的`filter`方法来过滤出年龄大于30岁的记录,使用`groupBy`和`agg`方法来按性别分组并计算平均工资,以及使用`sort`方法按年龄降序排序。 最后,我们可以使用DataFrame的`write`方法将结果写入HDFS: ``` df_filtered.write.format("csv").option("header", "true").save("hdfs://path/to/output/folder") df_grouped.write.format("csv").option("header", "true").save("hdfs://path/to/output/folder") df_sorted.write.format("csv").option("header", "true").save("hdfs://path/to/output/folder") ``` 上述代码中,我们使用了DataFrame的`write`方法将过滤、分组和排序后的结果分别写入HDFS中的一个输出文件夹中。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值