十、Spark SQL数据源 - Parquet文件

本文介绍了如何使用Spark SQL读取和写入Parquet文件,包括读取Parquet文件的示例代码以及显示数据帧内容。在处理过程中遇到了IO异常和访问控制异常,分别通过配置winutils.exe和设置HADOOP用户名属性来解决。此外,还提到了避免过多日志信息的日志配置方法。
摘要由CSDN通过智能技术生成

Parquet概述

Apache Parquet是Hadoop生态系统中任何项目都可以使用的列式存储格式,不受数据处理框架、数据模型和编程语言的影响。Spark SQL支持对Parquet文件的读写,并且可以自动保存源数据的Schema。当写入Parquet文件时,为了提高兼容性,所有列都会自动转换为“可为空”状态。

读取和写入Parquet的方法

加载和写入Parquet文件时,除了可以使用load()方法和save()方法外,还可以直接使用Spark SQL内置的parquet()方法

1、读取parquet文件

执行命令:val usersdf = spark.read.parquet(“hdfs://master:9000/input/users.parquet”)
在这里插入图片描述

2、显示数据帧内容

执行命令:usersdf.show()

在这里插入图片描述

提出任务

向HDFS的目录/students中首先写入两个学生的姓名和年龄信息,然后写入两个学生的姓名和成绩信息,最后读取/students目录中的所有学生数据并合并Schema。
package net.hw.sparksql

import org.apac

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值