Hadoop 分布式文件系统HDFS

分布式文件系统HDFS

一、HDFS概述

1.背景、定义

背景:随着数据量越来越大,在一个操作系统上存不下所有的数据,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统。HDFS只是分布式文件管理系统中的一种。

定义:HDFS,他是一个文件系统,用于存储文件,通过目录树来定位文件;其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色。

使用场景:适合一次写入,多次读出的场景,且不支持文件的修改。适合用来做数据分析,并不适合来做网盘应用。

2.优缺点

优点

  1. 高容错性
  2. 适合处理大数据
  3. 可构建在廉价机器上,通过多副本机制,提高可靠性。

缺点

  1. 不适合低延时数据访问,比如毫秒级的存储数据,是做不到的。
  2. 无法搞笑的对大量小文件进行存储。
  3. 不支持并发写入、文件随即修改(一个文件只能由一个写,不允许多个线程同时写;仅支持数据append追加,不支持文件的随即修改。

3.HDFS 组成架构

在这里插入图片描述

  1. NameNode(nn):就是Master,它是一个主管、管理者。
  • 管理HDFS的名称空间
  • 配置副本策略
  • 管理数据块映射信息
  • 处理客户端读写请求
  1. DataNode:就是Slave。NameNode下达命令,DaraNode执行实际的操作。
  • 存储实际的数据块
  • 执行数据块的读/写操作
  1. Client:就是客户端。
  • 文件切分。文件上穿HDFS的时候,Client将文件切分成一个一个的Block,然后进行上传;
  • 与NameNode交互,获取文件的位置信息;
  • 与DataNode交互,读写或者写入数据;
  • Client提供一些命令来管理HDFS,比如NameNode格式化;
  • Client可以通过一些命令来访问HDFS,比如对HDFS增删查改操作;
  1. Secondary NameNode;并非NameNode的热备。当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务。
  • 辅助NameNode,分担其工作量,比如定期合并Fsimage和Edits,并推送给NameNode;
  • 在紧急情况下,可辅助回复NameNode。

4.HDFS文件块大小

在这里插入图片描述

思考:为什么块的大小不能设置太小,也不能设置太大?

答:

  1. HDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置;
  2. 如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。导致程序在处理这块数据时,会非常慢。

总结:HDFS块的大小设置主要取决于磁盘传输速率。

二、HDFS的Shell操作(开发重点)

1.基本语法

bin/hadoop fs 具体命令 OR bin/hdfs dfs 具体命令
dfs是fs的实现类。

2.命令大全

	[zaz01@hadoop102 hadoop-2.7.2]$ bin/hadoop fs
	
	[-appendToFile <localsrc> ... <dst>]
	        [-cat [-ignoreCrc] <src> ...]
	        [-checksum <src> ...]
	        [-chgrp [-R] GROUP PATH...]
	        [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
	        [-chown [-R] [OWNER][:[GROUP]] PATH...]
	        [-copyFromLocal [-f] [-p] <localsrc> ... <dst>]
	        [-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
	        [-count [-q] <path> ...]
	        [-cp [-f] [-p] <src> ... <dst>]
	        [-createSnapshot <snapshotDir> [<snapshotName>]]
	        [-deleteSnapshot <snapshotDir> <snapshotName>]
	        [-df [-h] [<path> ...]]
	        [-du [-s] [-h] <path> ...]
	        [-expunge]
	        [-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
	        [-getfacl [-R] <path>]
	        [-getmerge [-nl] <src> <localdst>]
	        [-help [cmd ...]]
	        [-ls [-d] [-h] [-R] [<path> ...]]
	        [-mkdir [-p] <path> ...]
	        [-moveFromLocal <localsrc> ... <dst>]
	        [-moveToLocal <src> <localdst>]
	        [-mv <src> ... <dst>]
	        [-put [-f] [-p] <localsrc> ... <dst>]
	        [-renameSnapshot <snapshotDir> <oldName> <newName>]
	        [-rm [-f] [-r|-R] [-skipTrash] <src> ...]
	        [-rmdir [--ignore-fail-on-non-empty] <dir> ...]
	        [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]
	        [-setrep [-R] [-w] <rep> <path> ...]
	        [-stat [format] <path> ...]
	        [-tail [-f] <file>]
	        [-test -[defsz] <path>]
	        [-text [-ignoreCrc] <src> ...]
	        [-touchz <path> ...]
	        [-usage [cmd ...]]

3.常用命令实操

(0)启动Hadoop集群(方便后续的测试)

[zaz01@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh
[zaz01@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh

(1)-help:输出这个命令参数

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -help rm

(2)-ls: 显示目录信息

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -ls /

(3)-mkdir:在HDFS上创建目录

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -mkdir -p /sanguo/shuguo

(4)-moveFromLocal:从本地剪切粘贴到HDFS

[zaz01@hadoop102 hadoop-2.7.2]$ touch kongming.txt
[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -moveFromLocal ./kongming.txt /sanguo/shuguo

(5)-appendToFile:追加一个文件到已经存在的文件末尾

[zaz01@hadoop102 hadoop-2.7.2]$ touch liubei.txt
[zaz01@hadoop102 hadoop-2.7.2]$ vi liubei.txt
输入
san gu mao lu
[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -appendToFile liubei.txt /sanguo/shuguo/kongming.txt

(6)-cat:显示文件内容

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -cat /sanguo/shuguo/kongming.txt

(7)-chgrp 、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -chmod 666 /sanguo/shuguo/kongming.txt
[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -chown atguigu:atguigu /sanguo/shuguo/kongming.txt

(8)-copyFromLocal:从本地文件系统中拷贝文件到HDFS路径去

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -copyFromLocal README.txt

(9)-copyToLocal:从HDFS拷贝到本地

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -copyToLocal /sanguo/shuguo/kongming.txt ./

(10)-cp :从HDFS的一个路径拷贝到HDFS的另一个路径

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -cp /sanguo/shuguo/kongming.txt /zhuge.txt

(11)-mv:在HDFS目录中移动文件

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -mv /zhuge.txt /sanguo/shuguo/

(12)-get:等同于copyToLocal,就是从HDFS下载文件到本地

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -get /sanguo/shuguo/kongming.txt ./

(13)-getmerge:合并下载多个文件,比如HDFS的目录 /user/atguigu/test下有多个文件:log.1, log.2,log.3,…

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -getmerge /user/atguigu/test/* ./zaiyiqi.txt

(14)-put:等同于copyFromLocal

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -put ./zaiyiqi.txt /user/atguigu/test/

(15)-tail:显示一个文件的末尾

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -tail /sanguo/shuguo/kongming.txt

(16)-rm:删除文件或文件夹

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -rm /user/atguigu/test/jinlian2.txt

(17)-rmdir:删除空目录

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -mkdir /test
[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -rmdir /test

(18)-du统计文件夹的大小信息

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -du -s -h /user/atguigu/test
2.7 K /user/atguigu/test [zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -du -h /user/atguigu/test
1.3 K /user/atguigu/test/README.txt
15 /user/atguigu/test/jinlian.txt
1.4 K /user/atguigu/test/zaiyiqi.txt

(19)-setrep:设置HDFS中文件的副本数量

[zaz01@hadoop102 hadoop-2.7.2]$ hadoop fs -setrep 10 /sanguo/shuguo/kongming.txt

在这里插入图片描述

HDFS副本数量.
这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10。

三、HDFS客户端操作(开发重点)

1、HDFS环境配置

配置环境请观看Hadoop第三节文章。

2、HDFS的API操作

1.编写源代码

	@Test
	public void testCopyFromLocalFile() throws IOException, InterruptedException, URISyntaxException {
	
			// 1 获取文件系统
			Configuration configuration = new Configuration();
			configuration.set("dfs.replication", "2");
			FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
	
			// 2 上传文件
			fs.copyFromLocalFile(new Path("e:/banzhang.txt"), new Path("/banzhang.txt"));
	
			// 3 关闭资源
			fs.close();
	
			System.out.println("over");
	}

2.将hdfs-site.xml拷贝到项目的根目录下
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

	<configuration>
		<property>
			<name>dfs.replication</name>
	        <value>1</value>
		</property>
	</configuration>

3.参数优先级

参数优先级排序:(1)客户端代码中设置的值 >(2)ClassPath下的用户自定义配置文件 >(3)然后是服务器的默认配置

2、 HDFS文件下载
		@Test
		public void testCopyToLocalFile() throws IOException, InterruptedException, URISyntaxException{
		
				// 1 获取文件系统
				Configuration configuration = new Configuration();
				FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
				
				// 2 执行下载操作
				// boolean delSrc 指是否将原文件删除
				// Path src 指要下载的文件路径
				// Path dst 指将文件下载到的路径
				// boolean useRawLocalFileSystem 是否开启文件校验
				fs.copyToLocalFile(false, new Path("/banzhang.txt"), new Path("e:/banhua.txt"), true);
				
				// 3 关闭资源
				fs.close();
		}
3 HDFS文件夹删除
	@Test
	public void testDelete() throws IOException, InterruptedException, URISyntaxException{
	
		// 1 获取文件系统
		Configuration configuration = new Configuration();
		FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
			
		// 2 执行删除
		fs.delete(new Path("/0508/"), true);
			
		// 3 关闭资源
		fs.close();
	}
4 HDFS文件名更改
	@Test
	public void testRename() throws IOException, InterruptedException, URISyntaxException{
	
		// 1 获取文件系统
		Configuration configuration = new Configuration();
		FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu"); 
			
		// 2 修改文件名称
		fs.rename(new Path("/banzhang.txt"), new Path("/banhua.txt"));
			
		// 3 关闭资源
		fs.close();
	}
5 HDFS文件详情查看

查看文件名称、权限、长度、块信息

		@Test
		public void testListFiles() throws IOException, InterruptedException, URISyntaxException{
			
		// 1获取文件系统
		Configuration configuration = new Configuration();
		FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu"); 
			
		// 2 获取文件详情
		RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"), true);
			
		while(listFiles.hasNext()){
			LocatedFileStatus status = listFiles.next();
				
			// 输出详情
			// 文件名称
			System.out.println(status.getPath().getName());
			// 长度
			System.out.println(status.getLen());
			// 权限
			System.out.println(status.getPermission());
			// 分组
			System.out.println(status.getGroup());
				
			// 获取存储的块信息
			BlockLocation[] blockLocations = status.getBlockLocations();
				
			for (BlockLocation blockLocation : blockLocations) {
					
				// 获取块存储的主机节点
				String[] hosts = blockLocation.getHosts();
					
				for (String host : hosts) {
								System.out.println(host);
				}
			}
				
			System.out.println("-----------班长的分割线----------");
		}
	
	// 3 关闭资源
	fs.close();
	}
6 HDFS文件和文件夹判断
	@Test
	public void testListStatus() throws IOException, InterruptedException, URISyntaxException{
			
		// 1 获取文件配置信息
		Configuration configuration = new Configuration();
		FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
			
		// 2 判断是文件还是文件夹
		FileStatus[] listStatus = fs.listStatus(new Path("/"));
			
		for (FileStatus fileStatus : listStatus) {
			
			// 如果是文件
			if (fileStatus.isFile()) {
					System.out.println("f:"+fileStatus.getPath().getName());
				}else {
					System.out.println("d:"+fileStatus.getPath().getName());
				}
			}
			
		// 3 关闭资源
		fs.close();
	}

3 、HDFS的I/O流操作

我们可以采用IO流的方式实现数据的上传和下载。

3.1 HDFS文件上传

1.需求:把本地e盘上的banhua.txt文件上传到HDFS根目录
2.编写代码

	@Test
	public void putFileToHDFS() throws IOException,
	InterruptedException, URISyntaxException {
	
		// 1 获取文件系统
		Configuration configuration = new Configuration();
		FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
	
		// 2 创建输入流
		FileInputStream fis = new FileInputStream(new File("e:/banhua.txt"));
	
		// 3 获取输出流
		FSDataOutputStream fos = fs.create(new Path("/banhua.txt"));
	
		// 4 流对拷
		IOUtils.copyBytes(fis, fos, configuration);
	
		// 5 关闭资源
		IOUtils.closeStream(fos);
		IOUtils.closeStream(fis);
	    fs.close();
	}
3.2 HDFS文件下载

1.需求:从HDFS上下载banhua.txt文件到本地e盘上

2.编写代码

	// 文件下载
	@Test
	public void getFileFromHDFS() throws IOException, InterruptedException, URISyntaxException{
	
		// 1 获取文件系统
		Configuration configuration = new Configuration();
		FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
			
		// 2 获取输入流
		FSDataInputStream fis = fs.open(new Path("/banhua.txt"));
			
		// 3 获取输出流
		FileOutputStream fos = new FileOutputStream(new File("e:/banhua.txt"));
			
		// 4 流的对拷
		IOUtils.copyBytes(fis, fos, configuration);
			
		// 5 关闭资源
		IOUtils.closeStream(fos);
		IOUtils.closeStream(fis);
		fs.close();
	}
3.3 定位文件读取

1.需求:分块读取HDFS上的大文件,比如根目录下的/hadoop-2.7.2.tar.gz

2.编写代码
(1)下载第一块

	@Test
	public void readFileSeek1() throws IOException, InterruptedException, URISyntaxException{
	
		// 1 获取文件系统
		Configuration configuration = new Configuration();
		FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
			
		// 2 获取输入流
		FSDataInputStream fis = fs.open(new Path("/hadoop-2.7.2.tar.gz"));
			
		// 3 创建输出流
		FileOutputStream fos = new FileOutputStream(new File("e:/hadoop-2.7.2.tar.gz.part1"));
			
		// 4 流的拷贝
		byte[] buf = new byte[1024];
			
		for(int i =0 ; i < 1024 * 128; i++){
			fis.read(buf);
			fos.write(buf);
		}
			
		// 5关闭资源
		IOUtils.closeStream(fis);
		IOUtils.closeStream(fos);
	fs.close();
	}

(2)下载第二块

	@Test
	public void readFileSeek2() throws IOException, InterruptedException, URISyntaxException{
	
		// 1 获取文件系统
		Configuration configuration = new Configuration();
		FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
			
		// 2 打开输入流
		FSDataInputStream fis = fs.open(new Path("/hadoop-2.7.2.tar.gz"));
			
		// 3 定位输入数据位置
		fis.seek(1024*1024*128);
			
		// 4 创建输出流
		FileOutputStream fos = new FileOutputStream(new File("e:/hadoop-2.7.2.tar.gz.part2"));
			
		// 5 流的对拷
		IOUtils.copyBytes(fis, fos, configuration);
			
		// 6 关闭资源
		IOUtils.closeStream(fis);
		IOUtils.closeStream(fos);
	}

(3)合并文件

在Window命令窗口中进入到目录E:\,然后执行如下命令,对数据进行合并
type hadoop-2.7.2.tar.gz.part2 >> hadoop-2.7.2.tar.gz.part1
合并完成后,将hadoop-2.7.2.tar.gz.part1重新命名为hadoop-2.7.2.tar.gz。解压发现该tar包非常完整。

四、HDFS的数据流(面试重点)

4.1 HDFS写数据流程

4.1.1 剖析文件写入

HDFS写数据流程,如图:
在这里插入图片描述

  1. 客户端通过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。
  2. NameNode返回是否可以上传。
  3. 客户端请求第一个 Block上传到哪几个DataNode服务器上。
  4. NameNode返回3个DataNode节点,分别为dn1、dn2、dn3。
  5. 客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。
  6. dn1、dn2、dn3逐级应答客户端。
  7. 客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个Packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答。
  8. 当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器。(重复执行3-7步)。
4.1.2 网络拓扑-节点距离计算

在HDFS写数据的过程中,NameNode会选择距离待上传数据最近距离的DataNode接收数据。
节点距离:两个节点到达最近的共同祖先的距离总和。

例如,假设有数据中心d1机架r1中的节点n1。该节点可以表示为/d1/r1/n1。利用这种标记,这里给出四种距离描述,如图所示:
在这里插入图片描述

4.1.3 机架感知(副本存储节点选择)

1. 官方ip地址
http://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-hdfs/HdfsDesign.html#Data_Replication

2. Hadoop2.7.2副本节点选择
在这里插入图片描述

4.2 HDFS读数据流程

HDFS的读数据流程,如图:
在这里插入图片描述

  1. 客户端通过Distributed FileSystem向NameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNode地址。
  2. 挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据。
  3. DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以Packet为单位来做校验)。
  4. 客户端以Packet为单位接收,先在本地缓存,然后写入目标文件。
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

黎明之道

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值