HDFS学习

HDFS是什么:分布式文件存储系统
HDFS架构:HDFS是一个主/从(Mater/Slave)体系结构,HDFS集群拥有一个NameNode和一些DataNode。NameNode管理文件系统的元数据,DataNode存储实际的数据。客户端通过同NameNode和DataNodes的交互访问文件系统。客户端联系NameNode以获取文件的元数据,而真正的文件I/O操作是直接和DataNode进行交互的。
HDFS一般是用来“一次写入,多次读取”,不适合做实时交互性很强的事情,不适合存储大量小文件(当然也有解决方案)
HDFS原理:
1 分布式文件系统,它所管理的文件是被切块存储在若干台datanode服务器上.
2 hdfs提供了一个统一的目录树来定位hdfs中的文件,客户端访问文件时只要指定目录树的路径即可,不用关心文件的具体物理位置.
3 每一个文件的每一个切块,在hdfs集群中都可以保存多个备份(默认3份),在hdfs-site.xml中,dfs.replication的value的数量就是备份的数量.
4 hdfs中有一个关键进程服务进程:namenode,它维护了一个hdfs的目录树及hdfs目录结构与文件真实存储位置的映射关系(元数据).而datanode服务进程专门负责接收和管理"文件块"–block默认大小为128M(可配置),(dfs.blocksize).(老版本的hadoop的默认block是64M的)

HDFS常用的操作:
注:以下执行命令均在spark安装目录的bin目录下。
path 为路径 src为文件路径 dist 为文件夹
1、-help[cmd] 显示命令的帮助信息

./hdfs dfs -help ls

2、-ls® 显示当前目录下的所有文件 -R层层循出文件夹

./hdfs dfs -ls /log/map
./hdfs dfs -lsr /log/   (递归的)

3、-du(s) 显示目录中所有文件大小,或者当只指定一个文件时,显示此文件的大小

./hdfs dfs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1

4、-count[-q] 显示当前目录下的所有文件大小
5、-mv 移动多个文件目录到目标目录

./hdfs dfs -mv /user/hadoop/file1 /user/hadoop/file2

6、-cp 复制多个文件到目标目录

./hdfs dfs -cp /user/hadoop/file1 /user/hadoop/file2 (将文件从源路径复制到目标路径。
这个命令允许有多个源路径,此时目标路径必须是一个目录。)

7、-rm® 删除文件(夹)

./hdfs dfs -rmr /log/map1  (递归删除)

8、-put 本地文件复制到hdfs

./hdfs dfs -put test.txt /log/map/

9、-copyFromLocal 本地文件复制到hdfs

./hdfs dfs -copyFromLOcal /usr/data/text.txt /log/map1/   (将本地的text.txt 复制到hdfs的/log/map1/下)

10、-moveFromLocal 本地文件移动到hdfs

./hdfs dfs -moveFromLocal /usr/data/text.txt /log/map1/   (将本地的text.txt移动到hdfs的/log/map1/下)

put和copyfromlocal的区别在于copyFromLocal的源路径只能是一个本地的文件。
而put的源路径可能是多个文件,也可能是标准输入,也就说put可以多个文件(批量),书写方式灵活。

11、-cat 在终端显示文件内容

./hdfs dfs -cat /log/map1/part-00000  | head (读取hdfs上的/log/map1下的part-00000文件    head参数,代表前十行。)

 /hdfs dfs -tail /log/map1/part-00000 (查看文件的最后一千行)

12、-grep 从hdfs上过滤包含某个字符的行内容

./hdfs dfs -cat /log/testlog/* | grep 过滤字段

13、-get[-ignoreCrc] 复制文件到本地,可以忽略crc校验

./hdfs dfs -get /log/map1/*  . (复制到本地当前目录下)
/hdfs dfs -get /log/map1/* /usr/data (将hdfs下的/log/map1/下的所有文件全部复制到本地的/usr/data/下 )

用来操作hdfs文件系统目录信息快照

-createSnapshot
-deleteSnapshot
-renameSnapshot
-->hadoop fs -createSnapshot /

-df #统计文件系统的可用空间信息
-du #查看文件的大小

-->hadoop fs -df -h /
-->hadoop fs -du -s -h /aaa/*

-get #等同于copyToLocal,就是从hdfs下载文件到本地
-getmerge #合并下载多个文件
-rmdir #删除空目录

HDFS写入数据流程

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值