SparkSQL-通用加载和保存

Spark SQL的DataFrame接口支持多种数据源的操作。一个DataFrame可以进行RDDs方式的操作,也可以被注册为临时表。把DataFrame  注册为临时表之后,就可以对该DataFrame执行SQL查询

Spark SQL的默认数据源为Parquet格式。数据源为Parquet文件时,Spark SQL可以方便的执行所有的操作。修改配置项spark.sql.sources.default,可以修改默认数据源格式

读取文件:

spark.read.load("xxx.json"),他会报错,因为默认load加载的数据集的格式是Parquet格式

所以可以改为spark.read.format("json").load("xxx.json")

所以为了方便读取,我们还是在read.后面选取合适格式

存文件:

val df=spark.read.json("xxx.json")

df.write.save("文件夹名"),默认格式也是parquet

这个时候我们要format转换一个格式,删掉之前保存的

df.write.format("json").save("文件夹名"),这个时候进去看就是json格式的数据了

这里要注意一下保存的模式 ->mode

语句:df.write.format("json").mode("append").save("文件夹")

保存的模式一般有四种:

        error(default)            如果文件存在,则报错

        append                     追加

        overwrite                  覆写(就是覆盖的意思)

        ignore                        数据存在,则忽略

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值