Hadoop生态系统---各个模块介绍

本文介绍了Hadoop生态系统中的核心组件,包括HDFS的分布式存储、YARN的资源调度、MapReduce的批处理、Tez的优化、Spark的内存计算、Hive的数据仓库、Pig的数据分析、Oozie的工作流管理、Zookeeper的协调服务、Hbase的列式数据库、Flume的日志收集、Sqoop的数据迁移以及Ambari的部署管理工具。还涉及了Hadoop的安装环境和基本流程。
摘要由CSDN通过智能技术生成

视频来源:中国大学MOOC中厦门大学林子雨老师的课程《大数据技术原理与应用》

1.Hadoop生态环境

 1.1 HDFS

HDFS是一个分布式文件系统,是做顺序读写的。HDFS主要负责整个分布式文件的存储,即怎么用成百上千台服务器完成数据的存储。

1.2 YARN

YARN主要负责资源的调度,即数据存储之后需要进行相关的处理,处理之前需要有相关的框架去调度计算资源,底层资源主要靠YARN框架进行调度,YARN专门负责调度内存、cpu、带宽等计算资源。

以上组件如何完成具体的计算工作:

1.3 MapReduce

MapReduce不是做实时计算,而是做离线计算和批处理的。MApReduce是基于磁盘的计算,MApRe

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值