SparkSql——自定义Schema

package spark.test

import org.apache.spark.sql.{SparkSession,Row}
import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType}

object customSchemaTest {


  def main(args: Array[String]): Unit = {
    //创建SqlSession
    val spark=SparkSession.builder().master("local[3]").appName("aa").getOrCreate()
    import spark.implicits._
    //1,自定义schemal
    val schemalString = "name age"
    //2 切割 schema成跟数据相同的格式
    val sc =schemalString.split(" ")
              .map{ aa =>{
                  if(aa=="name"){
                    StructField(aa,StringType,true)
                  }else{
                    StructField(aa,IntegerType,true)
                  }
                }
              }
    val schema = StructType(sc)
    //把数据读成RDD的格式
    val dataRdd = spark.sparkContext.textFile("D://softwares//spark-2.1.1-bin-hadoop2.7//examples//src//main//resources/people.txt")
    //把Rdd切分成行
    val rowRDD = dataRdd.map(_.split(",")).map(att => Row(att(0),att(1).trim.toInt))
    //将模式应用于RDD
    val peopleDs = spark.createDataFrame(rowRDD,schema)


  }
}

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值