Spark SQL简介及视频教程,知识点总结+面试题解析

①数据按列存储,即每一列单独存放。

②数据即索引。

③只访问查询涉及的列,可以大量降低系统I/O。

④每一列由一个线程来处理,即查询的并发处理性能高。

⑤数据类型一致,数据特征相似,可以高效压缩。比如有增量压缩、前缀压缩算法都是基于列存储的类型定制的,所以可以大幅度提高压缩比,有利于存储和网络输出数据带宽的消耗。

三、SparkSQL入门

================

SparkSql将RDD封装成一个DataFrame对象,这个对象类似于关系型数据库中的表。

1、创建DataFrame对象


DataFrame就相当于数据库的一张表。它是个只读的表,不能在运算过程再往里加元素。

RDD.toDF(“列名”)

scala> val rdd = sc.parallelize(List(1,2,3,4,5,6))

rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at :21

scala> rdd.toDF(“id”)

res0: org.apache.spark.sql.DataFrame = [id: int]

scala> res0.show#默认只显示20条数据

±–+

| id|

±–+

| 1|

| 2|

| 3|

| 4|

| 5|

| 6|

±–+

scala> res0.printSchema #查看列的类型等属性

root

|-- id: integer (nullable = true)

创建多列DataFrame对象

DataFrame就相当于数据库的一张表。

scala> sc.parallelize(List( (1,“beijing”),(2,“shanghai”) ) )

res3: org.apache.spark.rdd.RDD[(Int, String)] = ParallelCollectionRDD[5] at parallelize at :22

scala> res3.toDF(“id”,“name”)

res4: org.apache.spark.sql.DataFrame = [id: int, name: string]

scala> res4.show

±–±-------+

| id| name|

±–±-------+

| 1| beijing|

| 2|shanghai|

±–±-------+

例如3列的

scala> sc.parallelize(List( (1,“beijing”,100780),(2,“shanghai”,560090),(3,“xi’an”,600329)))

res6: org.apache.spark.rdd.RDD[(Int, String, Int)] = ParallelCollectionRDD[10] at parallelize at :22

scala> res6.toDF(“id”,“name”,“postcode”)

res7: org.apache.spark.sql.DataFrame = [id: int, name: string, postcode: int]

scala> res7.show

±–±-------±-------+

| id| name|postcode|

±–±-------±-------+

| 1| beijing| 100780|

| 2|shanghai| 560090|

| 3| xi’an| 600329|

±–±-------±-------+

可以看出,需要构建几列,tuple就有几个内容。

2、由外部文件构造DataFrame对象


1.读取txt文件

txt文件不能直接转换成,先利用RDD转换为tuple。然后toDF()转换为DataFrame。

scala> val rdd = sc.textFile(“/root/words.txt”)

.map( x => (x,1) )

.reduceByKey( (x,y) => x+y )

rdd: org.apache.spark.rdd.RDD[(String, Int)] = ShuffledRDD[18] at reduceByKey at :21

scala> rdd.toDF(“word”,“count”)

res9: org.apache.spark.sql.DataFrame = [word: string, count: int]

scala> res9.show

±-----±----+

| word|count|

±-----±----+

| spark| 3|

| hive| 1|

|hadoop| 2|

| big| 2|

| scla| 1|

| data| 1|

±-----±----+

2.读取json文件

文件代码:

{“id”:1, “name”:“leo”, “age”:18}

{“id”:2, “name”:“jack”, “age”:19}

{“id”:3, “name”:“marry”, “age”:17}

实现:

import org.apache.spark.sql.SQLContext

scala>val sqc=new SQLContext(sc)

scala> val tb4=sqc.read.json(“/home/software/people.json”)

scala> tb4.show

3.读取parquet文件

格式如下:

1>Parquet数据格式

Parquet是一种列式存储格式,可以被多种查询引擎支持(Hive、Impala、Drill等),并且它是语言和平台无关的。

Parquet文件下载后是否可以直接读取和修改呢?

Parquet文件是以二进制方式存储的,是不可以直接读取和修改的。Parquet文件是自解析的,文件中包括该文件的数据和元数据。

列式存储和行式存储相比有哪些优势呢?

可以只读取需要的数据,降低IO数据量;

压缩编码可以降低磁盘存储空间。由于同一列的数据类型是一样的,可以使用更高效的压缩编码进一步节约存储空间。

参考链接:

http://blog.csdn.net/yu616568/article/details/51868447 讲解了parquet文件格式

http://www.infoq.com/cn/articles/in-depth-analysis-of-parquet-column-storage-format 讲解了parquet列式存储。

实现:

scala>val tb5=sqc.read.parquet(“/home/software/users.parquet”)

scala> tb5.show

4.jdbc读取

实现步骤:

1)将mysql 的驱动jar上传到spark的jars目录下

2)重启spark服务

3)进入spark客户端

4)执行代码,比如在Mysql数据库下,有一个test库,在test库下有一张表为tabx

执行代码:

import org.apache.spark.sql.SQLContext

scala> val sqc = new SQLContext(sc);

scala> val prop = new java.util.Properties

scala> prop.put(“user”,“root”)

scala> prop.put(“password”,“root”)

scala>val tabx=sqc.read.jdbc(“jdbc:mysql://hadoop01:3306/test”,“tabx”,prop)

scala> tabx.show

±–±—+

一、Python所有方向的学习路线

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

img
img

二、Python必备开发工具

工具都帮大家整理好了,安装就可直接上手!img

三、最新Python学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

img

四、Python视频合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

img

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。img

六、面试宝典

在这里插入图片描述

在这里插入图片描述

简历模板在这里插入图片描述

小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数初中级Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python爬虫全套学习资料》送给大家,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频

如果你觉得这些内容对你有帮助,可以添加下面V无偿领取!(备注:python)
img

96ac44da8af500c049bb72fbd.png#pic_center)

小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数初中级Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python爬虫全套学习资料》送给大家,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频

如果你觉得这些内容对你有帮助,可以添加下面V无偿领取!(备注:python)
[外链图片转存中…(img-3EqdpRAP-1711069270058)]

  • 18
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 很抱歉,我是AI语言模型,无法提供面试题解析。不过,我可以告诉你这些技术的基本概念和作用: 1. Spark:是一种快速、通用、可扩展的大数据处理引擎,支持内存计算和分布式计算,适用于大规模数据处理、机器学习、图形计算等场景。 2. Hadoop:是一个分布式计算框架,用于存储和处理大规模数据集。它包括HDFS(分布式文件系统)和MapReduce(分布式计算模型)两部分。 3. Hive:是一个基于Hadoop的数据仓库工具,用于将结构化数据映射到Hadoop上,并提供类SQL语言的查询和分析功能。 4. HBase:是一个分布式、面向列的NoSQL数据库,用于存储大规模结构化数据,支持高并发读写和实时查询。 以上是这些技术的基本概念,如果需要更深入的了解,可以参考相关的技术文档和书籍。 ### 回答2: 大数据技术在当今的信息时代中越发重要,而其中的Spark、Hadoop、Hive、Hbase等技术成为了大数据处理中比较核心的技术。下面对这些技术在面试中可能出现的问题和解析进行讲解。 一、Spark 面试题解析 1. Spark的特点和优势是什么? Spark是一种新兴的大数据并行计算框架,具有如下特点和优势: (1)高速计算能力:Spark的基本运算单位是RDD(弹性分布式数据集),可以有效地支持迭代运算和复杂数据处理,计算能力高于Hadoop。 (2)内存计算:Spark可以将中间结果全部存储在内存中,因此速度比Hadoop MapReduce要快。 (3)丰富的数据处理API:Spark支持Scala、Java、Python等语言,具有丰富的数据处理API,比如GraphX、SQL、Streaming等。 (4)容易上手:Spark可以和Hadoop生态系统完美结合,上手难度较低。 2. Spark的执行模式有哪些? Spark的执行模式有三种: (1)本地模式:在一台机器上执行,主要用于测试和开发。 (2)集群模式:在多台机器上执行,主要用于生产环境。 (3)混合模式:将本地模式和集群模式相结合,用于在本地开发测试,以便实现更快的迭代。 3. Spark的优化方法有哪些? Spark的优化方法如下: (1)缓存数据:将数据缓存到内存中,防止重复计算。 (2)广播变量:将只读数据广播到每个节点,避免数据重复传输。 (3)重复执行:在执行时复用已有的对象,避免重新创建。 (4)调整并行度:根据数据量和节点数调整并行度,避免不必要的资源浪费。 二、Hadoop 面试题解析 1. Hadoop的优点是什么? Hadoop是最常用的大数据处理框架之一,主要优点和特点如下: (1)分布式处理:Hadoop可以处理海量数据,通过将数据分布在不同的任务之间,完成任务并收集结果,可以提高处理速度。 (2)容错能力:Hadoop具有良好的容错性,一旦一个节点或任务失败,Hadoop可以自动重新分配任务到其他节点执行。 (3)架构灵活:Hadoop的分布式架构使得它可以跨平台运行,并且可以与其他大数据工具集成。 (4)开源免费:Hadoop是一款开源软件,可供商业公司和个人使用,特别是对于研究学习者非常友好。 2. Hadoop有哪些组件? Hadoop主要有两个组件:HDFS和MapReduce。 3. Hadoop的HDFS如何保证容错性? HDFS采用以下几种来提供容错性: (1)数据冗余:Hadoop系统会将数据分散到多个服务器上,并且在多个块之间存放相同的数据拷贝,一旦某个块出现问题,可以从备份恢复数据。 (2)块检查:Hadoop系统会定期检查每个块的位置和状态,如果发现某个块不可用,会尝试从备用副本中恢复数据。 (3)模式:Hadoop系统支持模式来减小数据丢失的可能性。 三、Hive 面试题解析 1. Hive的作用和使用场景是什么? Hive是基于Hadoop的数据仓库工具,可以将数据进行提取、变换和加载到大型计算机中,以便分析。Hive主要用于进行离线数据分析,在数据的ETL过程中,可以方便地用SQL进行数据转换和映射,处理大规模结构化数据,更适用于批处理,而不是实时操作场景。 2. Hive常用的数据存储格式有哪些? Hive支持多种数据存储格式,常用的包括:文本文件、序列文件、RC文件和ORC文件。 3. Hive与关系型数据库(RDBMS)的区别是什么? Hive是基于Hadoop的数据仓库,而关系型数据库是基于传统的表格结构的。Hive不支持实时查询和交易,但能够有效地处理海量数据,并采用类SQL(HiveQL)进行查询,而关系型数据库则适用于事务处理和实时查询。另外,Hive也支持非结构化数据,而关系型数据库则更适合处理结构化数据。 四、Hbase 面试题解析 1. Hbase的缺点是什么? Hbase是一款分布式、非关系型数据库,主要面向交互式查询和扫描大数据量的应用场景。在使用Hbase时,需要注意以下几个缺点: (1)性能:Hbase对范围查询和高并发支持不够完善,处理性能相比关系型数据库略逊一筹。 (2)数据复杂性:Hbase不支持关系型数据,而是采用键值对的存储策略,这可能会导致一些查询操作难度加大。 (3)可用性:由于Hbase是基于Hadoop的分布式文件系统(HDFS)构建的,因此可用性方面的问题可能存在性能和资源问题,需要进行一定的优化。 2. Hbase如何保证数据一致性? Hbase采用以下几种方式来保证数据一致性: (1)Zookeeper:Hbase通过Zookeeper的协同机制来协调数据的一致性,确保存储数据的多个地方具有同样的数据。 (2)版本控制:Hbase每次更改数据都会将其存储为新版本,而不会改变原有的数据,防止数据的丢失。 (3)读取锁:当有多个读取请求同时处理时,Hbase通过读取锁来避免不一致问题。 ### 回答3: 大数据技术已经成为当前信息时代的基石之一。在大数据领域中,有很多技术框架和工具。其中,Spark、Hadoop、Hive和HBase是最受欢迎的几种框架,广泛运用于大数据领域。下面我将会针对这四种框架的相关面试题进行解析。 1. Spark Q: Spark 是什么?有什么特点? A: Spark 是一种基于 Hadoop 的计算框架,它的分布式计算引擎可以支持 Java、Scala 和 Python 等多种编程语言。Spark 的一个主要特点是,它可以将内存作为存储系统,并且具有高速的数据处理能力,因此在大数据处理过程中速度非常快。此外,Spark 还提供了一个可扩展的集群管理系统,使得 Spark 集成和优化变得更加容易。 Q: Spark 可以运行在哪些模式下? 有哪些常见的运行模式? A: Spark 可以运行在 Local 模式下、Standalone 模式下和在 Hadoop 上运行的 YARN 模式下。其中,Local 模式只能在本地运行,Standalone 模式则以 Spark 自带的集群管理器 Spark Standalone 为基础,在多台主机上运行将构成一个 Spark 集群。 Q: Spark 有哪些数据源? A: Spark 可以支持读写不同的数据源,比如 HDFS、本地文件系统、HBase、JDBC 等。 2. Hadoop Q: Hadoop 是什么?有哪些组件? A: Hadoop 是一种开源的分布式计算框架,它的核心是用来处理大规模数据处理的问题。Hadoop 中包含了多个组件,比如 Hadoop 分布式文件系统、MapReduce、YARN 等。其中,HDFS(Hadoop Distributed File System)作为分布式文件系统,是 Hadoop 的存储层;MapReduce 则是 Hadoop 的计算框架;YARN 则是 Hadoop 2.x 中引入的资源调度系统。 Q: Hadoop 的 NameNode 和 DataNode 有什么区别? A: NameNode 是一个机器,由 Hadoop 集群中的一个节点充当,用于维护整个文件系统的元数据信息;DataNode 则是分布式文件系统存储数据的节点,在 Hadoop 集群中可以有多个。所以 NameNode 和 DataNode 之间的区别就是功能不同,NameNode 负责元数据信息维护,DataNode 则负责数据存储。 Q: Hadoop 的 HDFS 和 MapReduce 之间有什么关系? A: HDFS 是分布式文件系统,它为 MapReduce 提供了底层的数据存储服务。而 MapReduce 则是 Hadoop 的计算框架,它可以通过 HDFS 进行数据读取并进行相关的数据处理操作。 3. Hive Q: Hive 是什么?它可以做什么? A: Hive 是建立在 Hadoop 之上的数据仓库系统,它可以将数据存储在 Hadoop 文件系统中,并且支持使用 SQL 方式对数据进行查询分析。Hive 可以将 SQL 查询语句转换成 MapReduce 任务,实现 Hadoop 集群上的数据处理。 Q: Hive 的重要组件包括哪些? A: Hive 的重要组件包括 Metastore 和 HiveServer2 等。Metastore 负责 Hive 的元数据管理,包括表的存储信息、分区信息以及其他详细内容;HiveServer2 是 Hive 的服务端组件,它可以提供对外的 JDBC 服务和 Thrift 服务等,使得其他客户端可以通过 SQL 语句与 Hive 交互。 Q: Hive 中的分区有什么作用? A: Hive 中的分区是指将具有相同属性的数据存放在同一目录下的方法,可以用来提高数据的查询效率。分区可以基于单个或多个列来进行划分,比如将数据按照时间、地理位置等属性进行分区,这样查询时只需要扫描特定的分区即可,提高了查询效率。 4. HBase Q: HBase 是什么?它的主要特点是什么? A: HBase 是一种 NoSQL 数据库,它是建立在 Hadoop 文件系统之上的基于列的数据库系统。HBase 主要的特点是高可扩展性和高可用性,可以满足大规模企业级应用的需求。 Q: HBase 中的 Region 是什么?具有什么特点? A: HBase 中的 Region 即数据表的一部分,一个数据表可以被拆成多个 Region 来进行存储和管理。Region 拆分的主要目的是为了解决 HBase 在数据量庞大的情况下,单一 Region 的存储和数据读写性能瓶颈。可以通过 Region 的拆分和合并来处理数据分片的问题,以摆脱单一 Region 的限制。 Q: HBase 中的存储结构?它和关系型数据库的区别? A: HBase 中的存储结构采用的是分布式存储方式,数据被分散在多个节点上。同时,HBase 和关系型数据库的主要区别在于数据存储结构和数据模型上。HBase 采用的是基于列的存储模型,具有高可扩展性和高可用性;而关系型数据库则通常采用行式存储,具有事务处理等特性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值