Hadoop教程(第一节)

大数据概论

概念

在这里插入图片描述

大数据的特点

在这里插入图片描述在这里插入图片描述

在这里插入图片描述在这里插入图片描述

大数据应用场景

在这里插入图片描述在这里插入图片描述
在这里插入图片描述

在这里插入图片描述在这里插入图片描述

在这里插入图片描述

大数据部门业务流程分析

在这里插入图片描述
在这里插入图片描述

从Hadoop框架讨论大数据生态

Hadoop是什么

在这里插入图片描述在这里插入图片描述
在这里插入图片描述

Hadoop的优势

在这里插入图片描述
在这里插入图片描述
完成大数据的计算
①写程序,程序需要复合计算框架的要求!
java---->main----->运行
MapReduce(编程模型)----->Map–Reducer
②运行程序,申请计算资源(cpu+内存,磁盘IO,网络IO)
java----->JVM------>OS----->申请计算资源
1.0: MapReduce(编程模型)---->JobTracker----->JVM----->申请计算资源
2.0: MapReduce(编程模型)---->jar------>运行时,将jar包中的任务,提交给YARN,和YARN进行通信
由YARN中的组件-----JVM------>申请计算资源

1.x和2.x的区别是将资源调度和管理进行分离!由同一的资源调度平台YARN进行大数据计算资源的调度!
提升了Hadoop的通用性!Hadoop搭建的集群中的计算资源,不仅可以运行Hadoop中的MR程序!
也可以运行其他计算框架的程序!

在hadoop不久之后,由于MR的低效性,出现了许多更为高效的计算框架!
例如: Tez,Storm,Spark,Flink

HDFS

在这里插入图片描述

负责大数据的存储
	核心进程:
	必须进程:
		Namenode(1个): 负责文件,名称等元数据(属性信息)的存储!
						文件名,大小,文件切分了多少块(block),创建和修改时间等!
						
				职责: 接受客户端的请求!
					   接受DN的请求!
					   向DN分配任务!
		Datanode(N个): 负责文件中数据的存储!
				职责:  负责接受NM分配的任务!
						负责数据块(block)的管理(读,写)!
		
	可选进程:
		SecondaryNamenode(N个):  负责辅助NameNode工作!

MapReduce

MapReduce将计算过程分为两个阶段:Map和Reduce
1)Map阶段并行处理输入数据
2)Reduce阶段对Map结果进行汇总

在这里插入图片描述

MapReduce(编程规范): 程序中有Mapper(简单处理)和Reducer(合并)
		
		遵循MapReduce的编程规范,编写的程序,打包后,称为一个Job(任务)!
		
		Job需要提交到YARN上,向YARN申请计算资源,运行Job中的Task(进程)!
		
		Job会先创建一个进程MRAppMaster(mapreduce 应用管理者),由MRAppMaster向YARN申请资源!
		MRAppMaster负责监控Job中各个Task运行情况,进行容错管理!

YARN

YARN负责集群中所有计算资源的管理和调度!
		
		常见进程:
		
		ResourceManager(1个):   负责整个集群所有资源的管理!
				职责: 负责接受客户端的提交Job的请求!
						负责向NM分配任务!
						负责接受NM上报的信息!
		
		NodeManager(N个):  负责单台计算机所有资源的管理!
				职责:  负责和RM进行通信,上报本机中的可用资源!
						负责领取RM分配的任务!
						负责为Job中的每个Task分配计算资源!

在这里插入图片描述

Container(容器):  NodeManager为Job的某个Task分配了2个CPU和2G内存的计算资源!
								为了防止当前Task在使用这些资源期间,被其他的task抢占资源!
								将计算资源,封装到一个Container中,在Container中的资源,会被暂时隔离!
								无法被其他进程所抢占!
								
								当前Task运行结束后,当前Container中的资源会被释放!允许其他task来使用!

大数据的生态体系

在这里插入图片描述图中涉及的技术名词解释如下:
1)Sqoop:Sqoop是一款开源的工具,主要用于在Hadoop、Hive与传统的数据库(MySql)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
2)Flume:Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
3)Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:
(1)通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
(2)高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。
(3)支持通过Kafka服务器和消费机集群来分区消息。
(4)支持Hadoop并行数据加载。
4)Storm:Storm用于“连续计算”,对数据流做连续查询,在计算时就将结果以流的形式输出给用户。
5)Spark:Spark是当前最流行的开源大数据内存计算框架。可以基于Hadoop上存储的大数据进行计算。
6)Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统。
7)Hbase:HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。
8)Hive:Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
10)R语言:R是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个自由、免费、源代码开放的软件,它是一个用于统计计算和统计制图的优秀工具。
11)Mahout:Apache Mahout是个可扩展的机器学习和数据挖掘库。
12)ZooKeeper:Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。

推荐系统架构图

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值