既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
- 采用大规模并行处理架构、硬件利用率高
- 不依赖MapReduce,并行处理执行计划,避免启动MapReduce开销
- 结果写入内存并通过网络汇总,节省读写磁盘开销
2.框架优点
- 基于内存进行计算,适合实时交互式SQL查询和分析
- 无需转化为MapReduce,直接访问HDFS以及Hbase数据,低延迟
3.框架限制
- 数据需要写入内存,对内存消耗比较大
- 没有容错逻辑,如果执行过程发生错误会直接返回错误
- 不支持UDF定制
三、架构图
Impala采用MPP架构,主要由Impala Daemon、Statestore和Catalog等三个模块组成。
1.Impala Daemon
接收查询请求,将查询请求生成计划树,分发执行计划到其他节点。进行数据读写,将结果进行汇总并返回。
Impala Daemon服务包含三个模块:Query Planner、Query Coordinator和Query Executor。
2.Statestore
主要是收集集群中所有Deamon的节点信息和健康情况。每个Deamon会从Statestore拉取并缓存所有Deamon相关信息,用于执行计划的分配。
3.Catalog
Impala的元数据服务,集群启动时从Hive Metastore加载元数据信息,如需再次加载需要使用invalidate metadata、refresh命令。Catalog负责接收Statestore的元数据查询请求。在Impala执行SQL导致元数据发生变化时,Catalog会将元数据变化同步给Statestore,再由Statestore广播给所有Daemon节点。
四、Impala查询流程
1.发起查询
客户端向Impala集群任意节点发送查询SQL语句
2.生成执行计划
Query Planner对查询语句进行解析生成解析树,然后将解析树变成执行计划。
3.分配任务
Query Coordinator根据执行计划和从Statestore获取的集群Daemon节点情况,将任务分配给Query Executor节点进行计算。
4.交换中间数据
Query Executor对计算的中间结果进行交换。
5.汇集结果
Query Coordinator从集群中的Query Executor节点拉取结果并进行汇集。
6.返回结果
Query Coordinator将汇总后的结果返回给客户端。
总结
Impala是大数据进行实时交互式分析查询的一个工具,没有依赖MapReduce执行任务,而是将任务分配到各个Impala节点进行计算和汇总,从而避免了MapReduce的启动时间。直接使用内存进行结果的保存减少了读写磁盘的时间。经过以上架构设计Impala的性能比Hive高出10到100倍,非常适用于即席查询和交互式分析场景。
参考链接
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**