大数据随记 —— DataFrame 的创建与 Maven 配置

大数据系列文章👉 目录 👈

在这里插入图片描述

一、 开发环境准备

在项目的 pom.xml 中添加 Maven 的依赖:

<!--Spark SQL 基础依赖-->
<dependency>  
  <groupId>org.apache.spark</groupId>  
  <artifactId>spark-sql_2.12</artifactId>  
  <version>3.3.0</version>  
</dependency>

<!--Spark SQL 操作 Hive 的依赖-->
<dependency>  
  <groupId>org.apache.spark</groupId>  
  <artifactId>spark-hive_2.12</artifactId>  
  <version>3.3.0</version>  
</dependency>

二、 创建 DataFrame

Spark 应用程序使用 SQLContext,可以通过 RDD、Hive 表、JSON 格式数据创建 DataFrame。

基于 JSON 文件创建 DataFrame 示例

使用 spark.read.json() 方法即可通过读取 JSON 文件创建 DataFrame。

package sparksql  
  
import org.apache.spark.sql.SQLContext  
import org.apache.spark.{SparkConf, SparkContext}  
 
  
object DataFrameCreate {  
  
  def main(args: Array[String]): Unit = {  
    val sparkConf = new SparkConf().setMaster("local[2]").setAppName("DataFrameApp")  
    val sc = new SparkContext(sparkConf)  
    val sqlContext = new SQLContext(sc)  
  
    // 使用 SQLContext 将 JSON 文件转成 DataFrame    
    val df = sqlContext.read.json("resources/json/people.json")  
  
    df.show()  
    sc.stop()  
  }
}

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

繁依Fanyi

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值