SparkSQL读取普通格式的RDD通过动态创建Schema方式加载DatFrame

示例代码:

import org.apache.spark.rdd.RDD
import org.apache.spark.sql.types.{DataTypes, StructField, StructType}
import org.apache.spark.sql.{Row, SparkSession}

/**
 * 通过动态创建Schema方式将普通格式的RDD转换成DataFrame
 * 注意:
 * 创建StructType类型的数据时,StructField字段的顺序需要与构建的RDD[Row]中每个Row中放入数据的顺序保持一致。
 */
object ReadRDDToDF2 {
  def main(args: Array[String]): Unit = {
    val session = SparkSession.builder().master("local").appName("ReadRDDToDF2").getOrCreate()
    val sc = session.sparkContext
    sc.setLogLevel("Error")
    val personInfos: RDD[String] = sc.textFile("T:/code/spark_scala/data/spark/personInfo")

    val rowRDD: RDD[Row] = personInfos.map(line => {
      val arr = line.split(",")
      val id = arr(0).toInt
      val name = arr(1)
      val age = arr(2).toInt
      val score = arr(3).toDouble
      Row(id, name, age, score)
    })
    val structType = StructType(List[StructField](
      StructField("id", DataTypes.IntegerType, true),
      StructField("name", DataTypes.StringType, true),
      StructField("age", DataTypes.IntegerType, true),
      StructField("score", DataTypes.DoubleType, true)
    ))
    val frame = session.createDataFrame(rowRDD, structType)
    frame.show()
    frame.printSchema()
    frame.createTempView("t")
    session.sql(
      """
        | select id,name ,age ,score from t where id = 3
      """.stripMargin).show()

  }
}
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值