Hadoop基础之《(1)—大数据基本概念》

一、Hadoop
1、Hadoop大数据框架,处理分布式环境下数据存储和计算
2、Hadoop的HDFS处理存储
3、Hadoop的MapReduce处理计算
map让任务数据拆分到每一台去执行
reduce处理后的任务合并
4、Hive作用是在Hadoop上能够让用户来写SQL处理数据
Hive的执行引擎,会把SQL语句翻译成一个MapReduce的任务去执行

二、Spark
1、Spark本身也是一个计算框架,它和Hadoop的MapReduce对比(相当于MapReduce升级版)。不同点是Spark是一个基于内存的计算,MapReduce是基于磁盘的计算,Spark速度会比Hadoop快2-3倍
2、Spark也有Spark SQL的这个模块,让用户在Spark的API上面去写SQL

三、Hadoop的HDFS
1、Hadoop的分布式文件存储系统
2、数据分布在许多计算机中以块的形式存储,但是用户看起来就是一块磁盘

四、Hadoop的MapReduce
MapReduce将数据分成多个部分,并在不同的数据节点上分别处理每个部分,然后将各个结果汇总并输出

五、Hadoop的Yarn
1、资源管理器:分配资源
2、节点管理器:处理节点并监控节点中的资源使用情况
3、应用管理器:管理应用
4、容器:包含物理资源的集合

5、处理创建的MapReduce任务
(1)应用管理器从节点管理器请求容器
(2)节点管理器获得资源后,将它们发送给资源管理器
(3)这样Yarn在Hadoop中就可以处理任务请求并管理集群资源

六、Hadoop其他管理、处理、分析工具
Hive、Pig、Spark、Flume、Scoop等等

七、Flink
用于实时计算,可以与yarn集成

八、Hbase
用于海量存储

九、大数据技术生态体系

包括数据的收集传递、存储、资源的管理、计算、任务调度、业务应用等层次。

组件包括:
Sqoop:是一款开源的工具,主要用于在Hadoop、Hive与传统数据库(Mysql、Oracle)之间进行数据的传递,可以将一个关系型数据库中的数据导进HDFS中,也可以将HDFS的数据导入关系型数据库中。
Flume:是一个高可用的、高可靠的、分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据。
Kafka:是一种高吞吐量的分布式发布订阅消息系统。
Spark:是当前最流行的开源大数据内存计算框架,可以基于Hadoop上存储的大数据进行计算。
Flink:是当前最流行的开源大数据内存计算框架,用于实时计算的场景比较多。
Oozie:是一个管理Hadoop作业(job)的工作流程调度管理系统。
HBase:是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。
Hive:是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行执行。可以通过类似SQL语句来快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
ZooKeeper:是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、分布式同步、组服务等。

说明:
(1)图中Kafka既可以做数据传输也可以做数据存储。
(2)这些是离线计算

(3)这些是实时计算

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值