大数据生态圈及HDFS

一、 大数据概念

1.1、大数据

传统数据处理应用软件不足以处理(存储和计算)它们的大而复杂的数据集。主要解决海量数据的存储和海量数据的运算问题。

1.2、数据单位

bit、byte(B)、KB、MB、GB、TB、PB、EB、ZB

1.3、大数据的特征:

  • 容量大:数据的大小决定所考虑的数据的价值和潜在的价值
  • 种类多:结构化数据、半结构化数据(xml,html)、非结构化数据
  • 速度快:数据的产生呈指数式爆炸生长,处理数据时延越来越低
  • 价值高:综合价值大,隐含价值大。无用数据多(价值密度低)。

1.4、元数据

定义:描述数据的数据
元数据信息:

  • 目录树结构
  • 每个文件的数据块存放的位置

1.5、什么是Hadoop

  1. Hadoop是Apache旗下的一套开源软件平台

  2. Hadoop提供的功能:利用服务器集群,根据用户自定义业务逻辑,对海量数据进行分布式处理——存储+运算

  3. Hadoop核心组件:
    Common(基础功能组件)
    HDFS(Hadoop Distributed File System 分布式文件系统)
    YARN(Yet Another Resources Negotiator 运算资源调度系统)
    MapReduce(Map和Reduce分布式运算编程框架)

  4. 广义上讲,Hadoop通常指一个更广泛的概念——Hadoop生态圈

1.6、Hadoop自带jar包试用方法**:

hadoop jar hadoop目录下MapReduce全路径下jar包名 函数名 参数

  1. 例wordcount函数:
    hadoop jar /software/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.4.jar(jar包全路径)
    wordcount (函数名)/wc.txt(HDFS上的文件输入路径) /wcout0302(HDFS上的文件输出路径)
  2. 例pi函数:
    hadoop jar /software/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.4.jar
    pi 5(Map数量) 5(Reduce数量)

二、 HDFS

2.1、设计思想

中庸思想,块的大小不大不少最好:

  • 块太大,块的数量少,不方便计算,更不符合HDFS的设计思想——尽量均匀分布在集群中
  • 块太小,块的数量多,导致找回数据压力大

分散存储
一个大的文件想要进行存储,可借助HDFS这种分布式文件系统把大文件切分存储在各个节点上
冗余存储
整个HDFS的从节点存在故障问题,通过对数据块进行备份保证数据的安全

2.2、block(块)默认大小

hadoop2.x之前:64M
hadoop2.x(含)之后:128M

2.3、HDFS三大组件及HA、联邦

2.3.1namenode

  1. 职责:维护元数据信息,负责客户端请求的响应,配置副本存放策略及管理集群负载均衡问题

  2. NameNode使用WAL(Write ahead Log)预写日志系统对元数据进行管理

  3. NameNode元数据存储机制
    (1)内存中有一份完整的元数据(内存metadata)
    (2)磁盘有一个元数据镜像(fsimage)文件
    (3)用于衔接内存metadata和持久化元数据镜像fsimage之间的操作日志(edit)文件
    客户端对hdfs中的文件进行新增或者修改操作,操作记录首先被计入edits日志文件中,客户端操作成功后,相应的元数据会更新到内存metadata中

  4. 元数据的CheckPoint(合并)
    每隔一段时间,会由SecondaryNameNode将NameNode上积累的所有edits和最新的一个fsimage下载到本地,并加载到内存进行merge(合并),这个过程称为checkpoint
    目的:
    (1)大大缩小了操作日志的大小
    (2)合并之后的磁盘镜像文件可以被nameNode快速的加载到内存中

edit文件信息查看:

hdfs oev -i edits_0000000000000001222-0000000000000001233 -o edits.xml
cat edits.xml

fsimage镜像文件信息查看:

hdfs oiv -i fsimage_0000000000000001233 -p XML -o fsimage.xml
cat fsimage.xml

2.3.2、datanode
职责

  1. 维护namenode给它分配的block块
  2. 定期向NameNode汇报自身所持有的block信息(通过心跳机制上报)
  3. 实际存储数据

2.3.3secondnamenode
作用
分担namenode合并元数据压力,故SecondaryNameNode不能和NameNode处于同一节点。
实际上。只有普通的伪分布式集群和分布式集群中才有该角色,在HA和联邦集群中都有standby NameNode承担该角色任务
在这里插入图片描述

高可用(HA)

  1. 高可用指7*24h不中断服务,即HA(High Available)
  2. HA是为了解决HDFS集群中NameNode的单点故障问题(SPOF Single Point of Failure)
  3. NameNode主要在以下两个方面影响HDFS集群:
    NameNode机器发生意外,如宕机等导致集群无法使用
    NameNode机器需要升级,如软件,硬件升级导致集群无法使用
  4. HDFS高可用功能通过配置Active/Standby两个NameNode实现在集群中对NameNode 的热备来解决上述问题
    HA集群通过zookeeper来进行对NameNode的选举,最开始两个NameNode去抢锁(lock),抢到的就是Active节点,没抢到的就是Standby节点,Active节点把元数据信息不断的写入到journal集群,Standby节点不停的从Journal集群读取元数据信息并写入到本地,不断的同步两个NameNode的元数据信息,所以可以在Activce节点宕机的时候快速从Standby切换到Active,保证集群的可用性

*联邦机制

  1. *为什么要有联邦机制(Federation)
    HDFS的单NameNode设计带来了很多问题,包括单点故障(SPOF)以及内存受限问题,SPOF通过HA解决,内存受限通过Federation解决。

  2. 什么是联邦机制?
    HDFS Federation之HDFS集群课同时存在多个NameNode
    这种设计可解决单NameNode存在的以下几个问题:
    (1)HDFS集群扩展性
    多NameNode维护数据元信息。使集群扩展性提高
    (2)性能更高效
    各NameNode分别维护不同的元数据信息,处理请求效率更高
    (3)良好的隔离性
    各NameNode维护的元数据信息是隔离的
    在这里插入图片描述

2.4、HDFS优点

1. 可构建在廉价机器上
通过多副本机制提高可靠性
2. 高容错性
数据自动保存多个副本,某个副本丢失后可以自动恢复
3. 适合批处理
它通过移动计算而不是移动数据
4. 适合大数据处理
能够处理10k+节点规模
5. 流式文件访问
一次写入,多次读取,通过校验机制保证数据的一致性

2.5、HDFS缺点

1. 不适于低时延的数据访问
HDFS适合高吞吐量的场景,不适合低延时的读取或存储数据,另外HDFS是单Master的,所有对文件的请求都要经过它,所有请求量大的时候肯定会有延时

2. 不适于小文件的存储
存储大量小文件的话,会占用大量的Namenode内存来存储这些小文件的元数据,并且其寻道时间会超过读取时间
3. 不适于文件的修改
并发写入,文件随机修改 。一个文件只能有一个写,不允许多个线程同时写,文件一旦写入,仅仅支持追加。

2.6、常用命令参数介绍

参数功能
-help输出这个命令参数手册
-ls显示目录信息
-put等同于copyFromLocal,进行文件上传
-get等同于copyToLocal,从hdfs下载文件到本地
-cp从hdfs的一个路径拷贝到hdfs的另一个路径
-mv在hdfs目录中移动文件
-rm删除文件或文件夹
-rmdir删除空目录
-moveFromLocal从本地剪切到hdfs
-moveToLocal从hdfs剪切到本地
-copyFromLocal从本地文件系统拷贝文件到hdfs文件系统中去
–copyFromLocal从hdfs拷贝到本地
-appendToFile追加一个文件到已经存在的文件末尾
-cat显示文件内容
-tail显示一个文件的末尾
-text以字符形式打印一个文件的内容
-chgrplinux 文件系统中的用法一样,对文件所属权限
-chmodlinux 文件系统中的用法一样,对文件所属权限
-chownlinux 文件系统中的用法一样,对文件所属权限
-df统计文件系统的可用空间信息
-du统计文件夹的大小信息
-count统计一个指定目录下的文件节点数量
-setrep设置 hdfs 中文件的副本数量

hdfs dfsadmin -report 可查看集群当前状态(该命令只可以在主节点上运行)

2.7、三大机制

2.7.1、心跳机制

  • 心跳机制
    Hadoop是Master/Slave架构,Master中有NameNode和ResourceManager,Slave中有DataNode和NodeManager
    Master启动的时候会启动一个IPC(Inter-Process Comunication,进程间通信)server服务,等待Slave的连接
    Slave启动时会主动连接Master的ipc server服务,并且每隔3s连接一次,我们形象的称之为心跳。Slave通过心跳汇报自己的信息给Master,Master也通过心跳给Slave下达命令。
    NameNode通过心跳得到DataNode的状态,ResourceManager通过心跳得知NodeManager的状态
    如果Master长时间没有接收到Slave的心跳,就认为该Slave挂掉了

  • Admin State:dead判断机制 timeout(超时时长) = 10 * 心跳时长 + 2 * 检查心跳机制是否正常工作的时间
    心跳时长:3s ——》dfs.heartbeat.interval = 3 秒 检查心跳机制是否正常工作的时间 :5min
    ——》heartbeat.recheck.interval = 5分钟 timeout(超时时长) = 630s

Last contact:0 1 2 正常

名词涵义
Last contact最近一次通讯时间
Admin State状态
Capacity容量
Used已经使用的容量
Non DFS Used非dfs使用的容量
Remaining剩下的容量
Blocks前的datanode所保存的块的数量
Block pool used块池占用大小
Failed Volumes0表任何的卷出现错误就要停止当前的数据节点
Version版本

2.7.2、安全模式

进入安全模式的原理:
NameNode发现集群中的block丢失率达到一定比例时(0.1%),NameNode就会进入安全模式。在安全模式中客户端不能对任何数据进行操作,只能查看元数据信息。

丢失率配置参数:dfs.namenode.safemode.threshould-pct=0.999f

如何退出安全模式?

  1. 找到问题所在,进行修复(修复宕机的datanode)
  2. 手动强行退出安全模式(并没有解决真正的数据丢失问题)

关于安全模式的命令
hdfs dfsadmin -safemode leave //强制namenode退出安全模式
hdfs dfsadmin -safemode enter //强制进入安全模式
hdfs dfsadmin -safemode get //查看安全模式的状态
hdfs dfsadmin -safemode wait //等待,一直等到安全模式结束

2.7.3、副本存放策略
副本存放策略:决定一个数据块的多个副本(默认是3)到底应该选取哪些服务器的节点进行存储

  1. 第一个副本块选取和客户端相同的节点上
  2. 第二个副本块选取跟第一个副本的存储节点相邻机架上的任意一个节点
  3. 第三个副本存储在和第二个副本块所在的机架的不同的节点上

原则

  1. 任意一个节点上面不可能存储两个一样的副本块
  2. 如果一个数据库要保存完整的3个副本块,那么必须至少要3个节点

作用
数据分块存储和副本的存放,是提高可靠性和高性能的关键

2.8、HDFS上传下载原理

2.8.1、上传(写入)
在这里插入图片描述

总结:

  1. 客户端向namenode请求上传文件
  2. namenode 检查权限并做出响应
  3. 客户端拿到namenode的响应之后,请求上传第一个block块,并请namenode返回可用的datanode列表
  4. namenode依据客户端的请求返回可用的datanode的列表
  5. 客户端与可用的datanode列表中的节点建立数据传输管道,进行数据传输
  6. datanode依次返回响应,正式建立起来数据传输管道
  7. 客户端以package为单位,进行数据的传输,知道第一个block块传输完毕
  8. 其他的block块以此类推,传输完全部的数据

2.8.2、下载(读取)
在这里插入图片描述

总结

  1. 客户端向namenode请求下载文件
  2. namenode返回目标文件的元数据信息,{blk1:dn1 blk2:dn2 blk3:dn1}
  3. 客户端和每一个block块所在的主机建立管道
  4. 以package为单位进行数据的传输
  5. 读取完毕之后,将block块合并成完整的文件
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值