大数据技术之Hadoop(HDFS文件系统 命令行操作)

一、HDFS概念

HDFS,它是一个文件系统,用于存储文件,通过目录树来定位文件;其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色。
HDFS的设计适合一次写入,多次读出的场景,且不支持文件的修改。适合用来做数据分析,并不适合用来做网盘应用。


组成:
1)HDFS集群包括,NameNode和DataNode以及Secondary Namenode。
2)NameNode负责管理整个文件系统的元数据,以及每一个路径(文件)所对应的数据块信息。
3)DataNode 负责管理用户的文件数据块,每一个数据块都可以在多个datanode上存储多个副本。
4)Secondary NameNode用来监控HDFS状态的辅助后台程序,每隔一段时间获取HDFS元数据的快照。


HDFS 文件块大小
在这里插入图片描述

二、HFDS命令行操作

1、基本语法

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs 具体命令

或者

[victor@node1 hadoop-2.8.2]$ bin/hdfs dfs 具体命令 

2、HDFS参数大全

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs

3、HDFS常用命令实操

1)-help
输出这个命令参数

[victor@node1 hadoop-2.8.2]$ bin/hdfs dfs -help rm

2)-ls
显示目录信息

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -ls /

3)-mkdir
在hdfs上创建目录

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -mkdir -p /aaa/bbb/cc/dd

4)-moveFromLocal
从本地剪切粘贴到hdfs

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -moveFromLocal /home/hadoop/a.txt  /aaa/bbb/cc/dd

5)-moveToLocal
从hdfs剪切粘贴到本地(没有实现)

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -help moveToLocal
-moveToLocal <src> <localdst> :  
Not implemented yet

6)-appendToFile
追加一个文件到已经存在的文件末尾

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -appendToFile ./hello.txt /hello.txt 

7)-cat
显示文件内容

[alex@hadoop103 hadoop-2.7.2]$ bin/hadoop fs -cat /a.txt

8)-tail
显示一个文件的末尾

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -tail /weblog/access_log.1

9)-chgrp 、-chmod、-chownlinux
文件系统中的用法一样,修改文件所属权限

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -chmod 666 /hello.txt
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -chown someuser:somegrp /hello.txt

10)-copyFromLocal
从本地文件系统中拷贝文件到hdfs路径去

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/

11)-copyToLocal
从hdfs拷贝到本地

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -copyToLocal /user/hello.txt ./hello.txt

12)-cp
从hdfs的一个路径拷贝到hdfs的另一个路径

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2 

13)-mv
在hdfs目录中移动文件

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -mv /aaa/jdk.tar.gz-入门 /

14)-get
等同于copyToLocal,就是从hdfs下载文件到本地

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -get /user/hello.txt ./

15)-getmerge
合并下载多个文件,比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,…

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -getmerge /aaa/log.* ./log.sum

16)-put
等同于copyFromLocal
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -put /aaa/jdk.tar.gz /

17)-rm
删除文件或文件夹

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -rm -r /aaa/bbb/

18)-rmdir
删除空目录

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -rmdir /aaa/bbb/ccc

19)-df
统计文件系统的可用空间信息

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -df -h /

20)-du
统计文件夹的大小信息

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -du -s -h /user 

21)-count
统计一个指定目录下的文件节点数量

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -count /user

22)-setrep
设置hdfs中文件的副本数量

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -setrep 3 /aaa/jdk.tar.gz

尖叫提示:这里设置的副本数只是记录在namenode的元数据中,是否真的会有这么多副本,还得看datanode的数量。假设设置副本数为3,datanode节点数为2,最多2个副本,当datanode节点数为10,最多副本数为3

23)hdfs
离开安全模式

[victor@node1 hadoop-2.8.2]$ bin/hadoop dfsadmin -safemode leave

24)hadoop kill掉 yarn任务

[victor@node1 hadoop-2.8.2]$ bin/hadoop job -kill job_1526884826758_0015

25)设置上传块大小
方式一

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -conf ./hdfs-site.xml -put ./kn /spider/seeds/

方式二

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -D dfs.blocksize=5242880 -put ./km /spider/seeds/

26)手动设置hdfs副本数量

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -setrep -R 1/

27)刷新namenode

[victor@node1 hadoop-2.8.2]$ bin/hdfs dfsadmin -refreshNodes

28)刷新resourcemanager

[victor@node1 hadoop-2.8.2]$ bin/yarn rmadmin -refreshNodes 
©️2020 CSDN 皮肤主题: 1024 设计师:上身试试 返回首页