第59课:使用Java和Scala在IDE中实战RDD和DataFrame转换操作’学习笔记

本文介绍了在Spark中RDD到DataFrame转换的重要性,包括简化大数据开发和便于数据处理。通过Java和Scala的示例展示了如何使用反射和DataFrame API将RDD转换为DataFrame,并实现数据过滤操作。文章还提到了转换过程中可能遇到的权限和序列化问题及其解决方案。
摘要由CSDN通过智能技术生成

第59课:使用JavaScalaIDE中实战RDDDataFrame转换操作’学习笔记

本期内容:

1  RDDDataFrame转换的重大意义

2  使用Java实战RDDDaraFrame转换

3  使用Scala实战RDDDataFrame转换

 

一.  RDDDataFrame转换的重大意义

SparkRDD可以直接转换成DataFrameSparkCore的核心是RDD,所有的调度都是基于RDD完成的,对RDD的操作都可以转换成基于DataFrame使用SparkSQL来操作。RDD可能接上数据库,接上NoSQL,其他文件系统等各种数据来源,然后将数据转换为DataFrame

极大简化了大数据的开发,原来写Scala\Java,现在只需要写SparkSQL

同时对DataFrame的操作又可以转换成RDD,基于DataFrame对数据进行SQL或机器学习等操作后又可以转换为RDD,这对于保存数据、格式化非常方便。

RDDDataFrame有两种方式:

1.通过反射,推断RDD元素中的元数据。

RDD中的数据本身是没有元数据的,例如一个Person的信息里有id/name/ageRDDRecord不知道id/name/age这些信息,但如果变成DataFrame的话,DataFrame必须知道这些信息。如何在RDDDataFrame转换时拥有这些元数据信息呢?最简单的就是通过反射。

Scala中就是Case Class映射。写一个Case Class,描述RDD中不同列的元数据是什么。

Java中就是通过JavaBean

Scalacase class映射。

JavaBean(但不能支持嵌套的JavaBean,也不能有List/Map等复杂的数据结构。只能用简单的数据类型:String/Int等。Scala就没有这些限制)

使用反射的前提:已经知道元数据信息了(静态的)。但有些场景下只有在运行时才能知道元数据信息(动态的)

2. 创建DataFrame时事先不知道元数据信息,只能在运行时动态构建元数据。然后再把这些元数据信息应用于RDD上。这种情况是比较常见的情况,即动态获取Schema

 

class Person{

private int id;

private String name;

private int age;

}

点击右键,选择source -> Generate Getters and Setters

 

 

选择ageidname后点击OK

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值