[Spark][spark_sql]#1_sparksql入门

SQLContext的使用

object SQLContextApp {
  def main(args: Array[String]): Unit = {

    val path = "../resources/people.json"

    //1.创建相应Context

    val sparkConf = new SparkConf()
    sparkConf.setAppName("SQLContextApp").setMaster("local[2]")
    val sc = new SparkContext()
    val sqlContext = new SQLContext(sc)




    //2.相关处理:json
    val people = sqlContext.read.format("json").load(path)
    people.printSchema()
    people.show()


    //3.关闭资源
    sc.stop()


  }
}
  • ./bin/spark-submit --class com.spark.SQLContextApp --master local[2] /home/root/lib/sql-1.0.jar /home/root/app/spark-2.1.0-bin-hadoop2.6/examples/src/main/resources/people.json

HiveContext的使用

import org.apache.spark.sql.hive.HiveContext
import org.apache.spark.{SparkConf, SparkContext}

/**
 * HiveContext的使用
 * 使用时需要通过--jars 把mysql的驱动传递到classpath
 */
object HiveContextApp {

  def main(args: Array[String]) {
    //1)创建相应的Context
    val sparkConf = new SparkConf()

    //在测试或者生产中,AppName和Master我们是通过脚本进行指定
    //sparkConf.setAppName("HiveContextApp").setMaster("local[2]")

    val sc = new SparkContext(sparkConf)
    val hiveContext = new HiveContext(sc)

    //2)相关的处理:
    hiveContext.table("emp").show

    //3)关闭资源
    sc.stop()
  }

}

SparkSession的使用

import org.apache.spark.sql.SparkSession

/**
 * SparkSession的使用
 */
object SparkSessionApp {

  def main(args: Array[String]) {

    val spark = SparkSession.builder().appName("SparkSessionApp")
      .master("local[2]").getOrCreate()

    val people = spark.read.json("file:///Users/root/data/people.json")
    people.show()

    spark.stop()
  }
}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值