一、简介
1、HDFS背景及定义
背景:
由于数据量越来越大,一个操作系统存不下所有数据,而分开存储到多个操作系统的话,管理和维护又有诸多不便。迫切需要一种能管理多个机器文件的系统。于是就诞生了分布式文件管理系统。HDFS便是分布式文件管理系统中的一种。
定义:
HDFS(Hadoop Distributed File System) ,是一个用于存储文件的分布式系统,通过目录树来定位文件;由很多服务器联合起来实现功能,服务器具有各自的角色和功能。
使用场景:
适合一次写入,多次读出的场景,不支持文件修改。适合用来做数据分析,不适合作为网盘。
2、优缺点
优点
- 高容错:
能够自动保存多个副本。他通过增加副本的形式,提高容错性;
某个副本丢失,也能够自动恢复。
- 处理数据大规模:
数据规模:能够处理数据规模达到GB、TB甚至PB级别数据;
文件规模:能够处理百万规模以上的文件数量,数量相当大。
- 能构建在廉价机器上,通过多副本机制,提高可靠性
缺点
- 不适合低延时数据访问,比如毫秒级的存储数据,难以做到
- 无法高效的对大量小文件进行存储
存储大量小文件时,它会占用NameNode大量的内存来存储文件目录和块信息。因为NameNode内存有限;
小文件存储的寻址时间会超过读取时间,这违反了HDFS的设计目标。
- 不支持并发写入、文件随即修改。
一个文件只能有一个写,不允许多个线程同时写。
仅支持数据的追加,不支持文件的修改。
3、HDFS的组织架构
1)NameNode(nn):就是Master,它是一个主管、管理者。
管理HDFS的名称空间;
配置副本策略;
管理数据块(Block)映射信息;
处理客户端读写请求;
2)DataNode:NameNode下达命令,DataNode执行实际的操作。
存储实际的数据块;
执行数据块的读写操作。
3)client:就是客户端。
文件切分。文件上传到HDFS的时候,Client将文件切分成一个一个的Block,然后进行上传;
与NameNode交互,获取文件的位置信息;
与DataNode交互,读取或者写入数据;
Client提供一些命令来管理HDFS,比如NameNode格式化;
Client可以通过一些命令来访问HDFS,比如对HDFS的增删改查操作;
4)Secondary NameNode:并非NameNode的热备。当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务。
辅助NameNode,分担其工作量,比如定期合并Fsimage和Edits,并推送给NameNode;
紧急情况下,可辅助恢复NameNode
4、HDFS文件块大小(重点)
HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在Hadoop2.x版本中是128M,老版本64M
思考:为什么块不能设置太大也不能太小?
块设置太小,会增加寻址时间,程序一直在找块的开始位置;
块设置太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。导致程序在处理这块数据时非常慢。
总结:HDFS块的大小设置主要取决于磁盘传输的速率。
5、HDFS的shell操作
基本语法
bin/hadoop fs 具体命令 OR bin/hdfs dfs 具体命令
dfs是 fs 的实现类
常用命令实操
启动hadoop集群
sbin/start-dfs.sh
sbin/start-yarn.sh
-help:输出这个命令参数
hadoop fs -help rm
-ls:显示目录信息
hadooop fs -ls /
-mkdir:创建目录
hadoop fs -mkdir -p /input/shuguo
-moveFromLocal:从本地剪切粘贴到HDFS
hadoop fs -moveFromLocal ./zhugeliang.txt /input/shuguo
-appendToFile:追加一个文件到已有文件后面
hadoop fs -appendToFile ./guanyu.txt /input/shuguo/zhugeliang.txt
-cat显示文件内容
hadoop fs -cat /input/shuguo/zhugeliang.txt
-chgrp、-chmod、-chown: Linux文件系统中的用法一样,修改文件所属权限
-copyFromLocal:从本地文件系统中拷贝文件到HDFS中
hadoop fs -copyFromLocal ./zhugeliang.txt /input/shuguo
-copyToLocal:从HDFS拷贝文件到本地
hadoop fs -copyToLocal /input/shuguo/zhugeliang.txt ./
-cp、-mv用法和linux一样,是HDFS上的复制和移动
-get:和-copyToLocal功能一样
-getmerge:合并下载多个文件,比如HDFS的目录/shuguo下有多个文件,下载到本地并起名hello
hadoop fs -getmerge /input/shuguo/* ./hello
-put:和-copyFromLocal功能一样
-tail:显示文件末尾
-rm:删除文件或文件夹
-du:统计文件夹的大小信息
-setrep:设置HDFS中文件的副本数量
hadoop fs -setrep 2 /input/shuguo/wc.input