Apache Impala架构解析及与Hive、SparkSQL的性能比较_hive引擎执行效率对比(1)

  1. Impala Catalog Service(元数据管理和元存储)

元数据管理服务,进程名叫做catalogd,将数据表变化的信息分发给各个进程。接收来自statestore的所有请求 ,每个Impala节点在本地缓存所有元数据。 当处理极大量的数据和/或许多分区时,获得表特定的元数据可能需要大量的时间。 因此,本地存储的元数据缓存有助于立即提供这样的信息。当表定义或表数据更新时,其他Impala后台进程必须通过检索最新元数据来更新其元数据缓存,然后对相关表发出新查询。

  1. 其他组件列表

Impala client:将HiveQL请求送给Impalad,并等待结果返回给用户
Impalad:

Planner > FE(JAVA):负责解析查询请求,并生成执行计划树(Query Plan Tree)。

Coordinator > BE(C++):拆解请求(Fragment),负责定位数据位置,并发送请求到Exec Engine,汇聚请求结果上报。

Exec Engine > BE(C++):执行Fragment子查询,比如scan,Aggregation,Merge etc。
statestore server:维护Impalad的伙伴关系,负责通知伙伴关系变化,类似于仪表盘的zk的故障监控功能。

meta server:

Hive Meta Storage:用户维护表的schema信息等元数据(存在于一个关系型数据库)。

NameNode of HDFS:用于定位hdfs的数据位置。

HMaster of HBase:用于定位HBase的数据的位置。

storage server:

HDFS:HDFS的DataNode服务。

HBASE:HBase的RegionServer服务。

四、Impala的优缺点

  1. Impala的优点
  1. Impala不需要把中间结果写入磁盘,省掉了大量的I/O开销。

  2. 省掉了MapReduce作业启动的开销。MapReduce启动task的速度很慢(默认每个心跳间隔是3秒钟),Impala直接通过相应的服务进程来进行作业调度,速度快了很多。

  3. Impala完全抛弃了MapReduce这个不太适合做SQL查询的范式,而是像Dremel一样借鉴了MPP并行数据库的思想另起炉灶,因此可做更多的查询优化,从而省掉不必要的shuffle、sort等开销。

  4. 通过使用LLVM来统一编译运行时代码,避免了为支持通用编译而带来的不必要开销。

  5. 用C++实现,做了很多有针对性的硬件优化,例如使用SSE指令。

  6. 使用了支持Data locality的I/O调度机制,尽可能地将数据和计算分配在同一台机器上进行,减少了网络开销

  1. Impala的缺点
  1. Impala不提供任何对序列化和反序列化的支持。

  2. Impala只能读取文本文件,而不能读取自定义二进制文件。

  3. 每当新的记录/文件被添加到HDFS中的数据目录时,该表需要被刷新

五、Impala的功能

1.Impala可以根据Apache许可证作为开源免费提供。

2.Impala支持内存中数据处理,它访问/分析存储在Hadoop数据节点上的数据,而无需数据移动。

3.Impala为HDFS中的数据提供了更快的访问。

4.可以将数据存储在Impala存储系统中,如Apache HBase和Amazon s3。

5.Impala支持各种文件格式,如LZO,序列文件,Avro,RCFile和Parquet。

6.使用Impala,您可以使用传统的SQL知识以极快的速度处理存储在HDFS中的数据。

7.由于在数据驻留(在Hadoop集群上)时执行数据处理,因此在使用Impala时,不需要对存储在Hadoop上的数据进行数据转换和数据移动。

8.使用Impala,您可以访问存储在HDFS,HBase和Amazon s3中的数据,而无需了解Java(MapReduce作业)。您可以使用SQL查询的基本概念访问它们。

9.为了在业务工具中写入查询,数据必须经历复杂的提取 - 变换负载(ETL)周期。但是,使用Impala,此过程缩短了。加载和重组的耗时阶段通过新技术克服,如探索性数据分析和数据发现,使过程更快。

六、Hive、SparkSQL、Impala性能对比

参照cloudera公司做的性能基准对比测试,所有测试都运行在一个完全相同的21节点集群上,每个节点只配有64G内存。之所以内存不配大,就是为了消除人们对于Impala只有在非常大的内存上才有好性能的错误认识。

配置:

  • 双物理CPU,每个12核,Intel Xeon CPU E5-2630L 0 at 2.00GHz
  • 12个磁盘驱动器,每个磁盘932G,1个用作OS,其它用作HDFS
  • 每节点64G内存

对比产品:

  • Impala
  • Hive-on-Tez
  • Spark SQL
  • Presto

查询:

  1. 21个节点上的数据量为15T
  2. 测试场景取自TPC-DS,一个开放的决策支持基准(包括交互式、报表、分析式查询)
  3. 由于除Impala外,其它引擎都没有基于成本的优化器,本测试使用的查询都使用SQL-92标准的连接

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

(https://bbs.csdn.net/topics/618545628)**

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 18
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
ImpalaApache的一个开源分布式SQL查询引擎,它可以直接访问Hadoop集群中的数据,并提供了类似于关系型数据库的高性能查询功能。而Hive是一个数据仓库基础设施,它提供了一种将结构化数据映射到Hadoop分布式文件系统HDFS的方法。 在使用Impala连接Hive之前,需要确保ImpalaHive都已经在Hadoop集群上正确地安装和配置。 首先,我们需要在Impala中启用对Hive的支持。在Impala的配置文件中(一般是impalad或impala-shell),将参数`-use_hive_catalog=true`设置为True。这样Impala将会连接到Hive的元数据存储,以获取Hive表的信息。 然后,我们可以使用Impala Shell或者Impala JDBC/ODBC驱动程序连接到Impala。在连接字符串中,需要指定Impala Daemon的主机名和端口号。例如:`impala-shell -i hostname:port`。 在Impala Shell中,默认情况下,可以使用`USE DATABASE`语句来切换到Hive数据库。例如:`USE DATABASE hive_db;`。 一旦连接到Hive数据库,我们可以使用ImpalaSQL语法来查询Hive表。例如:`SELECT * FROM hive_table LIMIT 10;`。Impala会将查询转换为MapReduce任务并直接在HDFS上运行,从而实现高性能的查询。 需要注意的是,ImpalaHive虽然都能够处理结构化数据,但它们的数据模型和查询语法可能略有不同。因此,需要根据具体情况来调整查询语句,以确保查询的正确性和性能。 总结起来,Impala连接Hive可以通过在Impala的配置文件中启用对Hive的支持,并使用Impala Shell或驱动程序连接到Impala,然后可以直接使用ImpalaSQL语法来查询Hive表。这样可以充分利用Impala的高性能查询功能来处理Hive中的数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值