Hadoop的三大组成部分
-- HDFS (hadoop的组成部分-负责海量数据的存储)
-- NameNode(nn):管理真实数据的元数据的(hdfs集群中的老大)
-- DataNode(dn):主要负责对真实数据块存储(hdfs集群中的小弟)
-- SecondaryNameNode(2nn):主要为NameNode进行一些数据备份,
一般恢复数据的时候才会用到它,它也不能保证完全数据恢复。
-- YARN (hadoop的组成部分,主要负责资源调度)
-- ResourceManager(rm):统筹管理每一台机器上的资源,并且负责接收处理客户端
作业请求。
-- NodeManager(nm):负责单独每一台机器的资源管理,实时保证和大哥
(ResourceManager)通信。
-- ApplicationMaster:针对每个请求job的抽象封装
-- Container:将来运行在YARN上的每一个任务都会给其分配资源,
Container就是当前任务所需资源的抽象封装
-- MapReduce(hadoop的组成部分,主要负责数据的计算分析)
-- Map阶段:就是把需要计算的数据按照需求分成多个MapTask任务来执行
-- Reduce阶段: 把Map阶段处理完的结果拷贝过来根据需求进行汇总计算
Hadoop的四个特点
1)高可靠性:Hadoop底层维护多个数据副本,所以即使Hadoop某个计算元素或存储出现故障,也不会导致数据的丢失。
2)高扩展性:在集群间分配任务数据,可方便的扩展数以千计的节点。
3)高效性:在MapReduce的思想下,Hadoop是并行工作的,以加快任务处理速度。
4)高容错性:能够自动将失败的任务重新分配。
大数据技术生态体系
1)Sqoop:Sqoop是一款开源的工具,主要用于在Hadoop、Hive与传统的数据库(MySql)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
2)Flume:Flume是一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;
3)Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统;
4)Spark:Spark是当前最流行的开源大数据内存计算框架。可以基于Hadoop上存储的大数据进行计算。
5)Flink:Flink是当前最流行的开源大数据内存计算框架。用于实时计算的场景较多。
6)Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统。
7)Hbase:HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。
8)Hive:Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
9)ZooKeeper:它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、分布式同步、组服务等。
Hadoop目录结构
1)查看Hadoop目录结构
[atguigu@hadoop102 hadoop-3.1.3]$ ll
总用量 52
drwxr-xr-x. 2 atguigu atguigu 4096 3月 14 2022 bin
drwxr-xr-x. 3 atguigu atguigu 4096 3月 14 2022 etc
drwxr-xr-x. 2 atguigu atguigu 4096 3月 14 2022 include
drwxr-xr-x. 3 atguigu atguigu 4096 3月 14 2022 lib
drwxr-xr-x. 2 atguigu atguigu 4096 3月 14 2022libexec
-rw-r--r--. 1 atguigu atguigu 15429 3月 14 2022 LICENSE.txt
-rw-r--r--. 1 atguigu atguigu 101 3月 14 2022 NOTICE.txt
-rw-r--r--. 1 atguigu atguigu 1366 3月 14 2022 README.txt
drwxr-xr-x. 2 atguigu atguigu 4096 3月 14 2022 sbin
drwxr-xr-x. 4 atguigu atguigu 4096 3月 14 2022 share
2)重要目录
(1)bin目录:存放对Hadoop相关服务(HDFS,YARN)进行操作的脚本
(2)etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件
(3)lib目录:存放Hadoop的本地库(对数据进行压缩解压缩功能)
(4)sbin目录:存放启动或停止Hadoop相关服务的脚本
(5)share目录:存放Hadoop的依赖jar包、文档、和官方案例