Spark-sql 1.x版

package Test01

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.{Dataset, SQLContext, SparkSession}

/**
  * 如果使用DataFrame或SQL读取数据,先将非结构化数据转化成结构化数据
  * 然后注册视图,执行Sql,最好触发action
  */
case class Emp(empno:Int,ename:String,job:String,mgr:String,hiredate:String,sal:Int,comm:String,deptno:Int)

object SparkSql01 {
  def main(args: Array[String]): Unit = {
      val conf = new SparkConf().setAppName("SparkSql01").setMaster("local[*]")
      val sc = new SparkContext(conf)
//sqlContext是对sparkContext的一个包装(增强了类功能,可以处理结构化的数据)
    val sqlContext = new SQLContext(sc)
    //读取数据源
   val lines: RDD[Array[String]] = sc.textFile(args(0)).map(_.split(","))
    //创建映射关系
    val allEmp = lines.map(x=>Emp(x(0).toInt,x(1),x(2),x(3),x(4),x(5).toInt,x(6),x(7).toInt))

    //导入隐式转换,将RDD转换成DataFrame
    import sqlContext.implicits._
    val df1 = allEmp.toDF()
    df1.show()

    //释放资源
    sc.stop()

  }
}

 

二种写法

package Test01

import org.apache.spark.rdd.RDD
import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType}
import org.apache.spark.sql.{DataFrame, Row, SQLContext}
import org.apache.spark.{SparkConf, SparkContext}

object SQLDemox2 {
  def main(args: Array[String]): Unit = {
    //Spark Rdd 程序的执行入口
    val conf = new SparkConf().setAppName("SQLDemox2").setMaster("local[*]")
    val sc = new SparkContext(conf)

    //SqlContext是对sparkconext的一个包装(增强了类功能,可以处理结构化数据)
    val sqlcontext = new SQLContext(sc)
    //读取数据源
    val lines: RDD[Array[String]] = sc.textFile(args(0)).map(_.split(","))

    //整理数据Row + schema
    val rowRDD: RDD[Row] = lines.map(line => {
      Row(line(0).toInt, line(1), line(2), line(3), line(4), line(5).toInt, line(6), line(7).toInt)
    })

    //创建表结构
    val schema = StructType {
      List(
        StructField("empno", IntegerType),
        StructField("ename", StringType),
        StructField("job", StringType),
        StructField("mgr", StringType),
        StructField("hiredate", StringType),
        StructField("sal", IntegerType),
        StructField("comm", StringType),
        StructField("deptno", IntegerType)
      )
    }
    //RDD关联Schema
    val df: DataFrame = sqlcontext.createDataFrame(rowRDD,schema)

    val result = df.select("empno","ename","sal")

    result.show()
    //释放资源
    sc.stop()
  }
}

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
该资源内项目源码是个人的课程设计、毕业设计,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! ## 项目备注 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。 该资源内项目源码是个人的课程设计,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! ## 项目备注 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值