Spark中DataFrame的schema讲解

1.Schema是什么

         DataFrame中提供了详细的数据结构信息,从而使得SparkSQL可以清楚地知道该数据集中包含哪些列,每列的名称和类型各是什么,

DataFrame中的数据结构信息,即为schema。

2.输出schema

      还是用官网中的people.json的文件,输出schema,看看schema到底长什么样子。people.json文件的show()在上一篇文章中已经写到,

为了大家方便,我再把people.json长啥样贴出来,如图:


输出schema就一行代码:

df.printSchema()

3.完整代码及结果


完整代码如下:

object SparkSQLExample {
  def main(args: Array[String]) {

    val sparkConf = new SparkConf().setMaster("local").setAppName("spark SQL basic example")

    val sc = new SparkContext(sparkConf)

    val sqlContext = new SQLContext(sc)

    val df = new SQLContext(sc).read.json("E:\\spark-2.1.0\\spark-2.1.0\\examples\\src\\main\\resources\\people.json")

    df.show()

    df.printSchema()

  }
}

看截屏不清楚,为了让大家看的清楚,只截结果:




  • 3
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值