HDFS学习一:简介及shell操作

一、简介

1、HDFS背景及定义

背景:

由于数据量越来越大,一个操作系统存不下所有数据,而分开存储到多个操作系统的话,管理和维护又有诸多不便。迫切需要一种能管理多个机器文件的系统。于是就诞生了分布式文件管理系统。HDFS便是分布式文件管理系统中的一种

定义:

HDFS(Hadoop Distributed File System) ,是一个用于存储文件的分布式系统,通过目录树来定位文件;由很多服务器联合起来实现功能,服务器具有各自的角色和功能。

使用场景:

适合一次写入,多次读出的场景,不支持文件修改。适合用来做数据分析,不适合作为网盘。

2、优缺点

优点

  • 高容错:

能够自动保存多个副本。他通过增加副本的形式,提高容错性;

某个副本丢失,也能够自动恢复。

  • 处理数据大规模:

数据规模:能够处理数据规模达到GB、TB甚至PB级别数据;

文件规模:能够处理百万规模以上的文件数量,数量相当大。

  • 能构建在廉价机器上,通过多副本机制,提高可靠性

缺点

  • 不适合低延时数据访问,比如毫秒级的存储数据,难以做到
  • 无法高效的对大量小文件进行存储

存储大量小文件时,它会占用NameNode大量的内存来存储文件目录和块信息。因为NameNode内存有限;

小文件存储的寻址时间会超过读取时间,这违反了HDFS的设计目标。

  • 不支持并发写入、文件随即修改。

一个文件只能有一个写,不允许多个线程同时写。

仅支持数据的追加,不支持文件的修改。

3、HDFS的组织架构

 

1)NameNode(nn):就是Master,它是一个主管、管理者。

管理HDFS的名称空间;

配置副本策略;

管理数据块(Block)映射信息;

处理客户端读写请求;

2)DataNode:NameNode下达命令,DataNode执行实际的操作。

存储实际的数据块;

执行数据块的读写操作。

3)client:就是客户端。

文件切分。文件上传到HDFS的时候,Client将文件切分成一个一个的Block,然后进行上传;

与NameNode交互,获取文件的位置信息;

与DataNode交互,读取或者写入数据;

Client提供一些命令来管理HDFS,比如NameNode格式化;

Client可以通过一些命令来访问HDFS,比如对HDFS的增删改查操作;

4)Secondary NameNode:并非NameNode的热备。当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务。

辅助NameNode,分担其工作量,比如定期合并Fsimage和Edits,并推送给NameNode;

紧急情况下,可辅助恢复NameNode

4、HDFS文件块大小(重点)

HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在Hadoop2.x版本中是128M,老版本64M

 

思考:为什么块不能设置太大也不能太小?

块设置太小,会增加寻址时间,程序一直在找块的开始位置;

块设置太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。导致程序在处理这块数据时非常慢。

总结:HDFS块的大小设置主要取决于磁盘传输的速率。

5、HDFS的shell操作

基本语法

bin/hadoop fs 具体命令  OR bin/hdfs dfs 具体命令
dfs是 fs 的实现类

常用命令实操

启动hadoop集群

sbin/start-dfs.sh
sbin/start-yarn.sh

-help:输出这个命令参数

hadoop fs -help rm

-ls:显示目录信息

hadooop fs -ls /

-mkdir:创建目录

hadoop fs -mkdir -p /input/shuguo

-moveFromLocal:从本地剪切粘贴到HDFS

hadoop fs -moveFromLocal ./zhugeliang.txt /input/shuguo

-appendToFile:追加一个文件到已有文件后面

hadoop fs -appendToFile ./guanyu.txt /input/shuguo/zhugeliang.txt

-cat显示文件内容

hadoop fs -cat /input/shuguo/zhugeliang.txt

-chgrp、-chmod、-chown: Linux文件系统中的用法一样,修改文件所属权限

-copyFromLocal:从本地文件系统中拷贝文件到HDFS中

hadoop fs -copyFromLocal ./zhugeliang.txt /input/shuguo

-copyToLocal:从HDFS拷贝文件到本地

hadoop fs -copyToLocal /input/shuguo/zhugeliang.txt ./

-cp、-mv用法和linux一样,是HDFS上的复制和移动

-get:和-copyToLocal功能一样

-getmerge:合并下载多个文件,比如HDFS的目录/shuguo下有多个文件,下载到本地并起名hello

hadoop fs -getmerge /input/shuguo/* ./hello

-put:和-copyFromLocal功能一样

-tail:显示文件末尾

-rm:删除文件或文件夹

-du:统计文件夹的大小信息

-setrep:设置HDFS中文件的副本数量

hadoop fs -setrep 2 /input/shuguo/wc.input
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿星_Alex

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值