Spark生态圈
Spark是基于scala语言产生的,因此有关spark中的各大编程应用也基本跟scala脱不开关系,但是好在spark的平台化做的不错,目前可支持python及R等语言的应用,这些得益于sparkSQL组件的存在,整个spark的结构组件如下如所示:
关于spark的组件功能描述不多说,可以参考博客spark入门系列及 官方资料等,保证有个初步的印象。SparkSQL在Hive中的应用
目前关于sparksql应用的中文文档并不多见,有兴趣的想深入了解的可以参考官方编程指导,里面涵盖了有关scala,java,python及R的语法规则及应用案例,这里简单的就pyspark交互式编程命令说说如何使用hive中的表。Spark SQL提供了一种抽象的编程工具DataFrame框架,它是分布式sql查询的基本引擎,不论采用何种编程语言最终都是实现对DataFrame的操作。DataFrame的构建数据源可以来自于结构化的数据文件,hive数据表,外部数据库及存在的RDDs数据集。
现在假设Spark环境已经安装好,调用spark安装包下的bin/pyspark脚本命令可启动交互式编程环境,如下图所示&#
SparkSQL与Hive的应用关系
最新推荐文章于 2024-06-18 09:37:18 发布
本文介绍了SparkSQL在Hive中的应用,包括通过pyspark启动交互式编程环境,建立SQLContext或HiveContext,对Hive数据进行查询、创建表、导入数据和查询数据集等操作。通过DataFrame和RDDs,提升了对Hive数据的查询效率。同时,文章提到了DataFrame的sql查询转换以及pyspark官方学习资源。
摘要由CSDN通过智能技术生成