【Spark】RDD转换DataFrame(反射机制)

Spark支持多种格式文件生成DataFrame,只需在读取文件时调用相应方法即可,本文以txt文件为例。
反射机制实现RDD转换DataFrame的过程:1. 定义样例类;2.RDD与样例类关联;3.RDD转换为DataFrame。

import org.apache.spark.SparkContext
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.{DataFrame, SparkSession}

case class Person(id:String, name:String, age:Int)

object SparkTextFile {
  def main(args: Array[String]): Unit = {
    //1.创建SparkSession对象
    val spark: SparkSession = SparkSession.builder().appName("StructTypeTest01").master("local[*]").getOrCreate()

    //2.创建sparkContext对象
    val sc: SparkContext = spark.sparkContext
    sc.setLogLevel("warn")


    //3.读入文件数据(sparkContext,SparkSession均可读取文件)
    //spark.read.text("E:\\person.txt").map(x => x.split(" "))
    //sc.textFile("E:\\person.txt").map(x => x.split(" "))
    val data: RDD[Array[String]] = sc.textFile(this.getClass.getClassLoader.getResource("person.txt").getPath).map(x => x.split(" "))

    //4.将RDD与样例类关联
    val personRDD: RDD[Person] = data.map(x => Person(x(0), x(1), x(2).toInt))

    //5.RDD转换为DataFrame
    import spark.implicits._
    val personDF: DataFrame = personRDD.toDF()

    //6.展示数据
    println("******************************************")
    personDF.printSchema()
    personDF.show()
    println("******************************************")

    //7.关闭session
    spark.stop()
  }
}
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值