SparkSql概念和API操作

本文探讨了学习Spark SQL的必要性,因其能有效解决Hive的执行速度问题。Spark SQL具备易整合、统一访问形式和兼容Hive等特性,并详细介绍了如何通过API操作从MySQL、HDFS/本地获取数据以及展示Hive表。同时,文章对比了Spark RDD与Spark SQL的区别。
摘要由CSDN通过智能技术生成

目录

一、学习Spark SQL必要性

二、SparkSQL的几大特点

易整合

统一的访问形式

兼容Hive

标准的数据连接

三、API操作

3.1、从mysql数据库获取数据

3.2、 从HDFS/本地 上获取数据(因为获取的光是数据,所以需要额外创建schema)

3.3、用spark展示hive表

四、SparkRDD和SparkSql的区别


一、学习Spark SQL必要性

Hive虽然简化了编写mapreduce的流程,但是有一个致命的缺点 慢!

所以Spark SQL应运而生,它是将Spark SQL转换成RDD,然后提交到集群中去运行,执行速度大大提升

二、SparkSQL的几大特点

易整合

将spark代码和Sql完美融和

 

统一的访问形式

在代码中进行非常简单的编写就可以访问各种数据源

兼容Hive

 

兼容hive意味着我们可以使用Hive中所有的语法

 

标准的数据连接

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值