Spark sql :load和save操做--spark学习笔记之一

一、load和save基础操作

对于spark SQL的DataFrame来说,无论是从什么数据源创建出来的DataFrame,都有一些共同的load和save操作。

load操作主要用于加载数据,创建出DataFrame;

save操作主要用于将DataFrame中的数据保存到文件中。

 

scala实现:

package **.tag.test


import org.apache.spark.sql.SQLContext
import org.apache.spark.{SparkConf, SparkContext}

object GenericLoadSave {

    def main(args: Array[String]) {

      val conf = new SparkConf()
        .setAppName("GenericLoadSave")

      val sc = new SparkContext(conf)
      val sqlContext = new SQLContext(sc)

      val usersDF = sqlContext.read.load("hdfs://ns1/***/users.parquet")
      usersDF.write.save("hdfs://ns1/home/***/nameAndFavoriteColors_scala")
     usersDF.select("name","favorite_color").write.save("hdfs://ns1/***/nameAndFavoriteColors_scala")
   }
}

 

二、手动指定数据源类型

Spark SQL 内置了一些数据源类型,比如json,parquet,jdbc等等,可以在不同类型的数据源之间进行转换。

val df = sqlContext.read.format("json").load("people.json")

df.select("name","age").write.format("parquet").save("nameAndAges.parquet")

 

三、SaveMode

spark SQL对于save操作,提供了不同的save mode。主要用来处理当目标位置已经有数据时,应该如何处理。

saveMode.ErrorifExists(默认):如果目标位置已经存在数据,那么抛出一个异常。

saveMode Append :如果目标位置已经存在数据,那么将数据追加进去。

saveMode Overwrite :如果目标位置已经存在数据,覆盖。

saveMode.ignore :如果目标位置已经存在数据,不做任务操作,忽略。

 

北风网spark学习笔记之一

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小白学习指南

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值