伪分布式集群、完全分布式搭建步骤详情

**

伪分布式集群、完全分布式搭建步骤详情

4.1 伪分布式模式介绍
1.特点
	- 在一台机器上安装,使用的是分布式思想,即分布式文件系统,非本地文件系统。
	- Hdfs涉及到的相关守护进程(namenode,datanode,secondarynamenode)都运行在一台机器上,都是独立的java进程。
2. 用途
	比Standalone mode 多了代码调试功能,允许检查内存使用情况,HDFS输入输出,以及其他的守护进程交
	互。
4.2 平台软件说明
- 操作系统: 		win10/win7
- 虚拟软件:			VMware14
- 虚拟机:			 CentOS_7.7_64_master	192.168.10.200
- 软件包存储路径:	  /opt/software/
- 软件安装路径:	   /opt/apps/	
- Jdk:			   jdk-8u221-linux-x64.tar.gz
- Hadoop:		   hadoop-2.7.6.tar.gz
- 用户:			  root
4.3 伪分布式环境需求及搭建:

4.3.1 环境需求:

--1. 确保防火墙是关闭的.
--2. NAT模式和静态IP的确定 (192.168.10.200)
--3. 确保/etc/hosts文件里 ip和hostname的映射关系
--4. 确保免密登陆localhost有效
--5. jdk和hadoop的环境变量配置

4.3.2 防火墙关闭确认

[root@master ~]# systemctl stop firewalld
[root@master ~]# systemctl disable firewalld

#最好也把selinux关闭掉,这是linux系统的一个安全机制,进入文件中将SELINUX设置为disabled
[root@master ~]# vi /etc/selinux/config
.........
SELINUX=disabled			
.........

4.3.3 配置/etc/hosts文件

-- 进入hosts文件,配置一下ip和hostname
[root@master ~]# sudo vi /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.81.200 master     <=添加本机的静态IP和本机的主机名之间的映射关系      

4.3.4 确保ssh对localhost的免密登陆认证有效

-1. 使用rsa加密技术,生成公钥和私钥。一路回车即可
[root@master ~]# ssh-keygen -t rsa				
-2. 进入~/.ssh目录下,将id_rsa.pub复制一份文件,文件名为authorized_keys。保证此文件的权限是600
[root@master ~]# cd ~/.ssh			
[root@master .ssh]# cp id_rsa.pub authorized_keys
	或者使用ssh-copy-id命令
[root@master .ssh]# ssh-copy-id -i id_ras.pub root@master
-3. 进行验证:	
[hadoop@master .ssh]# ssh localhost
#输入yes后,不提示输入密码就对了

4.3.5 安装Jdk和Hadoop,配置相关环境变量

-1. 上传和解压两个软件包
[root@master ~]# cd /opt/software/
[root@master software]# tar -zxvf jdk-8u221-linux-x64.tar.gz -C /opt/apps/
[root@master software]# tar -zxvf hadoop-2.7.6.tar.gz -C /opt/apps/

-2. 进入apps里,给两个软件更名
[root@master software]# cd /opt/apps/
[root@master apps]# mv jdk1.8.0_221/  jdk
[root@master apps]# mv hadoop-2.7.6/ hadoop

-3. 配置环境变量
[hadoop@master apps]# vi /etc/profile

.....省略...........

#java environment
export JAVA_HOME=/opt/apps/jdk
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

#hadoop environment
export HADOOP_HOME=/opt/apps/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
4.4 伪分布式相关文件的配置

4.4.1 core-site.xml的配置

[root@master ~]# cd $HADOOP_HOME/etc/haoop
[root@master hadoop]# vi core-site.xml

<configuration>
    <!-- 配置分布式文件系统的schema和ip以及port,默认8020-->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost/</value>
    </property>
</configuration>
	
扩展: hadoop1.x的默认端口是9000,hadoop2.x的默认端口是8020,使用哪一个都可以

4.4.2 hdfs-site.xml的配置:

[root@master hadoop]# vi hdfs-site.xml
<configuration>
    <!-- 配置副本数,注意,伪分布模式只能是1。-->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

4.4.3 hadoop-env.sh的配置:指定jdk的环境

[root@master hadoop]# vi hadoop-env.sh
................
# The java implementation to use.
export JAVA_HOME=/opt/apps/jdk
..................
4.5 格式化NameNode

4.5.1 格式化命令

[root@master hadoop]# hdfs namenode -format
4.6 启动HDFS

4.6.1 启动伪分布式

[root@master hadoop]# start-dfs.sh

4.6.3 jps命令查看守护进程

从上图我们可以看到,启动脚本会开启分布式文件系统上的相关进程:

namenode
datanode
secondary namenode
4.7 WebUI_50070
可以在浏览器上输入:192.168.10.200:50070 来查看一下伪分布式集群的信息
--1. 浏览一下页面上提示的ClusterID,BlockPoolID
--2. 查看一下活跃节点(Live Nodes)的个数,应该是1个
4.8 程序案例演示:wordcount程序

4.8.1 准备要统计的两个文件,存储到~/data/下

--1. 创建data目录
[root@master hadoop]# mkdir ~/data
--2. 将以下两个文件上传到data目录下
- poetry1.txt
- poetry2.txt 

4.8.2 在hdfs上创建存储目录

[root@master hadoop]# hdfs dfs -mkdir /input

4.8.3 将本地文件系统上的上传到hdfs上,并在web上查看一下

[root@master hadoop]$ hdfs dfs -put ~/data/poetry* /input/

4.8.4 运行自带的单词统计程序wordcount

[root@master hadoop]# cd $HADOOP_HOME
[root@master hadoop]# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.jar  wordcount /input /out

效果如下:

4.8.5 查看webui

4.8.6 查看part-r-00000文件

[root@master hadoop]# hdfs dfs -cat /out/part-r-00000

: 安装模式之完全分布式集群

5.1 完全分布式模式介绍

完全分布式,指的是在真实环境下,使用多台机器,共同配合,来构建一个完整的分布式文件系统。
在真实环境中,hdfs中的相关守护进程也会分布在不同的机器中,比如:
-1. namenode守护进程尽可能的单独部署在一台硬件性能相对来说比较好的机器中。
-2. 其他的每台机器上都会部署一个datanode守护进程,一般的硬件环境即可。
-3. secondarynamenode守护进程最好不要和namenode在同一台机器上。
5.2 平台软件说明
- 操作系统: 		win10/win7
- 虚拟软件:			VMware14
- 虚拟机:			 
					主机名     	IP
					master		192.168.10.200
                  	slave1		192.168.10.201
                  	slave2		192.168.10.202
- 软件包存储路径:	  /opt/software/
- 软件安装路径:	   /opt/apps/	
- Jdk:			   jdk-8u221-linux-x64.tar.gz
- Hadoop:		   hadoop-2.7.6.tar.gz
- 用户:			  root

切记,切记,切记:实际生产环境中,我们不会使用root用户来搭建和管理hdfs,而是使用普通用户。这里为了方便学习,我们才使用的root用户。
5.3 守护进程布局

我们搭建hdfs的完全分布式,顺便搭建一下yarn。hdfs和yarn的相关守护进程的布局如下:

master:	namenode,datanode,ResourceManager,nodemanager
slave1:	datanode,nodemanager,secondarynamenode
slave2:	datanode,nodemanager
5.4 完全分布式环境需求和搭建(重点)

5.4.1 环境需求说明:

-1. 三台机器的防火墙必须是关闭的.
-2. 确保三台机器的网络配置畅通(NAT模式,静态IP,主机名的配置)
-3. 确保/etc/hosts文件配置了ip和hostname的映射关系
-4. 确保配置了三台机器的免密登陆认证(克隆会更加方便)
-5. 确保所有机器时间同步
-6. jdk和hadoop的环境变量配置

5.4.2 关闭防火墙

[root@master ~]# systemctl stop firewalld
[root@master ~]# systemctl disable firewalld

#最好也把selinux关闭掉,这是linux系统的一个安全机制,进入文件中将SELINUX设置为disabled
[root@master ~]# vi /etc/selinux/config
.........
SELINUX=disabled			
.........

情况说明: 如果安装好三台机器,三台机器的防火墙都需要单独关闭和设置开机不启动。如果准备使用克隆方式,只关闭master机器即可。下面的配置也是如此。

5.4.3 静态IP和主机名配置

--1. 配置静态IP(确保NAT模式)
[root@master ~]# vi /etc/sysconfig/network-scripts/ifcfg-ens33
............
BOOTPROTO=static			#将dhcp改为static
............
ONBOOT=yes					#将no改为yes
IPADDR=192.168.10.200		#添加IPADDR属性和ip地址
PREFIX=24					#添加NETMASK=255.255.255.0或者PREFIX=24	
GATEWAY=192.168.10.2		#添加网关GATEWAY
DNS1=192.168.10.2			#添加DNS1和备份DNS
DNS2=8.8.8.8
DNS3=114.114.114.114

--2. 重启网络服务
[root@master ~]# systemctl restart network
或者
[root@master ~]# service network restart

--3. 修改主机名(如果修改过,请略过这一步)
[root@localhost ~]# hostnamectl set-hostname master
或者
[root@localhost ~]# vi /etc/hostname
master

注意:配置完ip和主机名后,最好reboot一下

5.4.4 配置/etc/hosts文件

[root@master ~]#  vi /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.81.200 master     <=添加本机的静态IP和本机的主机名之间的映射关系      

5.4.5 免密登陆认证

-1. 使用rsa加密技术,生成公钥和私钥。一路回车即可
[root@master ~]# Cd ~
[root@master ~]# ssh-keygen -t rsa				
-2. 进入~/.ssh目录下,将id_rsa.pub复制一份文件,文件名为authorized_keys。保证此文件的权限是600
[root@master ~]# cd ~/.ssh			
[root@master .ssh]# cp id_rsa.pub authorized_keys
	或者使用ssh-copy-id命令
[root@master .ssh]# ssh-copy-id -i id_rsa.pub root@master
-3. 进行验证	
[hadoop@master .ssh]# ssh localhost
[hadoop@master .ssh]# ssh master
[hadoop@master .ssh]# ssh 0.0.0.0
#输入yes后,不提示输入密码就对了


注意:三台机器提前安装好的情况下,需要同步公钥文件。如果使用克隆技术。那么使用同一套密钥对就方便多了。

5.4.6 时间同步

可以参考Linux文档中的时间同步或者搭建局域网时间服务器。

5.4.7 安装Jdk和Hadoop,配置相关环境变量

-1. 上传和解压两个软件包
[root@master ~]# cd /opt/software/
[root@master software]# tar -zxvf jdk-8u221-linux-x64.tar.gz -C /opt/apps/
[root@master software]# tar -zxvf hadoop-2.7.6.tar.gz -C /opt/apps/

-2. 进入apps里,给两个软件更名
[root@master software]# cd /opt/apps/
[root@master apps]# mv jdk1.8.0_221/  jdk
[root@master apps]# mv hadoop-2.7.6/ hadoop

-3. 配置环境变量
[hadoop@master apps]# vi /etc/profile

.....省略...........

#java environment
export JAVA_HOME=/opt/apps/jdk
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

#hadoop environment
export HADOOP_HOME=/opt/apps/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
5.5 Hadoop的配置文件

5.5.1 提取四个默认配置文件

第一步:将hadoop安装包解压到pc端的一个目录下,然后在hadoop-2.7.6目录下创建一个default目录,用于存储默认配置文件。
第二步:进入hadoop的share目录中的doc子目录,搜索default.xml。将以下四个默认的xml文件copy到default目录中,方便以后查看

5.5.2 $HADOOP_HOME/etc/hadoop/目录下的用户自定义配置文件

- core-site.xml
- hdfs-site.xml
- mapred-site.xml   复制mapred-site.xml.template而来
- yarn-site.xml 

5.5.3 属性的优先级

代码中的属性>xxx-site.xml>xxx-default.xml
5.6 完全分布式文件配置(重点)
配置前说明:我们先在master机器节点上配置hadoop的相关属性。

5.6.1 配置core-site.xml文件

[root@master ~]# cd $HADOOP_HOME/etc/hadoop/
[root@master hadoop]# vi core-site.xml
<configuration>
     <!-- hdfs的地址名称:schame,ip,port-->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:8020</value>
    </property>
     <!-- hdfs的基础路径,被其他属性所依赖的一个基础路径 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/apps/hadoop/tmp</value>
    </property>
</configuration>

参考:core-default.xml

5.6.2 再配置hdfs-site.xml文件

[root@master hadoop]#vi hdfs-site.xml
<configuration>
    <!-- namenode守护进程管理的元数据文件fsimage存储的位置-->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file://${hadoop.tmp.dir}/dfs/name</value>
    </property>
    <!-- 确定DFS数据节点应该将其块存储在本地文件系统的何处-->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file://${hadoop.tmp.dir}/dfs/data</value>
    </property>
    <!-- 块的副本数-->
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <!-- 块的大小-->
    <property>
        <name>dfs.blocksize</name>
        <value>134217728</value>
    </property>
    <!-- secondarynamenode守护进程的http地址:主机名和端口号。参考守护进程布局-->
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>slave1:50090</value>
    </property>
</configuration>

参考:hdfs-default.xml

5.6.3 然后配置mapred-site.xml文件

如果只是搭建hdfs,只需要配置core-site.xml和hdfs-site.xml文件就可以了,但是我们过两天要学习的MapReduce是需要YARN资源管理器的,因此,在这里,我们提前配置一下相关文件。

[root@master hadoop]# cp mapred-site.xml.template  mapred-site.xml
[root@master hadoop]# vi mapred-site.xml
<configuration>
    <!-- 指定mapreduce使用yarn资源管理器-->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <!-- 配置作业历史服务器的地址-->
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>master:10020</value>p
    </property>
    <!-- 配置作业历史服务器的http地址-->
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>master:19888</value>
    </property>
</configuration>

参考:mapred-default.xml

5.6.4 配置yarn-site.xml文件

[root@master hadoop]# vi yarn-site.xml
<configuration>
    <!-- 指定yarn的shuffle技术-->
    <property>
        <name>yarn.nodemanager.aux-services</name>
       <value>mapreduce_shuffle</value>
    </property>
    <!-- 指定resourcemanager的主机名-->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>master</value>
    </property> 
</configuration>

参考:yarn-default.xml

5.6.5 配置hadoop-env.sh脚本文件

[root@master hadoop]# vi hadoop-env.sh
.........
# The java implementation to use.
export JAVA_HOME=/opt/apps/jdk
.........

5.6.6 配置slaves文件,此文件用于指定datanode守护进程所在的机器节点主机名

[root@master hadoop]# vi slaves
master
slave1
slave2

5.6.7 配置yarn-env.sh文件,此文件可以不配置,不过,最好还是修改一下yarn的jdk环境比较好

[root@master hadoop]# vi yarn-env.sh
........省略........
# some Java parameters
export JAVA_HOME=/opt/apps/jdk
........省略........
5.7 另外两台机器配置说明

当把master机器上的hadoop的相关文件配置完毕后,我们有以下两种方式来选择配置另外几台机器的hadoop.

方法1:“scp”进行同步

提示:本方法适用于多台虚拟机已经提前搭建出来的场景。

--1. 同步hadoop到slave节点上
[root@master ~]# cd /opt/apps
[root@master apps]# scp -r ./hadoop slave1:/opt/apps/
[root@master apps]# scp -r ./hadoop slave2:/opt/apps/

--2. 同步/etc/profile到slave节点上
[root@master apps]# scp /etc/profile slave1:/etc/
[root@master apps]# scp /etc/profile slave2:/etc/

--3. 如果slave节点上的jdk也没有安装,别忘记同步jdk。
--4. 检查是否同步了/etc/hosts文件

**方法2:**克隆master虚拟机

提示:本方法适用于还没有安装slave虚拟机的场景。通过克隆master节点的方式,来克隆一个slave1和slave2机器节点,这种方式就不用重复安装环境和配置文件了,效率非常高,节省了大部分时间(免密认证的秘钥对都是相同的一套)。

--1. 打开一个新克隆出来的虚拟机,修改主机名
[root@master ~]# hostnamectl set-hostname slave1 
--2. 修改ip地址
[root@master ~]# vi /etc/sysconfig/network-scripts/ifcfg-ens33
.........省略.........
IPADDR=192.168.10.201				<==修改为slave1对应的ip地址
.........省略........
--3. 重启网络服务
[root@master ~]# systemctl restart network
--4. 其他新克隆的虚拟机重复以上1~3步
--5. 免密登陆的验证
	从master机器上,连接其他的每一个节点,验证免密是否好使,同时去掉第一次的询问步骤

--6. 建议:每台机器在重启网络服务后,最好reboot一下。
5.8 格式化NameNode

**1)**在master机器上运行命令

[root@master ~]# hdfs namenode -format

注意,注意,注意: 如果你是从伪分布式过来的,最好先把伪分布式的相关守护进程关闭:stop-all.sh

**2)**格式化的相关信息解读

--1. 生成一个集群唯一标识符:clusterid
--2. 生成一个块池唯一标识符:BlockPoolId
--3. 生成namenode进程管理内容(fsimage)的存储路径:
	默认配置文件属性hadoop.tmp.dir指定的路径下生成dfs/name目录
--4. 生成镜像文件fsimage,记录分布式文件系统根路径的元数据

--5. 其他信息都可以查看一下,比如块的副本数,集群的fsOwner等。

3)目录里的内容查看

5.9 启动集群

5.9.1 启动脚本和关闭脚本介绍

1. 启动脚本
	-- start-dfs.sh			:用于启动hdfs集群的脚本
	-- start-yarn.sh		:用于启动yarn守护进程
	-- start-all.sh			:用于启动hdfs和yarn
2. 关闭脚本
	-- stop-dfs.sh			:用于关闭hdfs集群的脚本
	-- stop-yarn.sh			:用于关闭yarn守护进程
	-- stop-all.sh			:用于关闭hdfs和yarn
3. 单个守护进程脚本
	-- hadoop-daemons.sh	:用于单独启动或关闭hdfs的某一个守护进程的脚本
	-- hadoop-daemon.sh		:用于单独启动或关闭hdfs的某一个守护进程的脚本
	reg:
		hadoop-daemon.sh [start|stop] [namenode|datanode|secondarynamenode]
	
	-- yarn-daemons.sh	:用于单独启动或关闭hdfs的某一个守护进程的脚本
	-- yarn-daemon.sh		:用于单独启动或关闭hdfs的某一个守护进程的脚本
	reg:
		yarn-daemon.sh [start|stop] [resourcemanager|nodemanager]

5.9.2 启动hdfs

**1)**使用start-dfs.sh,启动 hdfs。

**2)**启动过程解析:

- 启动集群中的各个机器节点上的分布式文件系统的守护进程
  一个namenode和resourcemanager以及secondarynamenode
  多个datanode和nodemanager
- 在namenode守护进程管理内容的目录下生成edit日志文件
- 在每个datanode所在节点下生成${hadoop.tmp.dir}/dfs/data目录,参考下图:

注意,注意,注意

如果哪台机器的相关守护进程没有开启,那么,就查看哪台机器上的守护进程对应的日志log文件,注意,启动脚本运行时提醒的日志后缀是*.out,而我们查看的是*.log文件。此文件的位置:${HADOOP_HOME}/logs/里

**3)**jps查看进程

--1. 在master上运行jps指令,会有如下进程
	namenode
	datanode
--2. 在slave1上运行jps指令,会有如下进程
	secondarynamenode
	datanode
--3. 在slave2上运行jps指令,会有如下进程
	datanode    

5.9.3 启动yarn

**1)**使用start-yarn.sh脚本,参考图片

**2)**jps查看

--1. 在master上运行jps指令,会多出有如下进程
	resoucemanager
	nodemanager
--2. 在slave1上运行jps指令,会多出有如下进程
	nodemanager
--3. 在slave2上运行jps指令,会多出有如下进程
	nodemanager 

5.9.4 webui查看

1. http://192.168.43.130:50070
2. http://192.168.43.130:8088
5.10 程序案例演示:wordcount

1) 准备要统计的两个文件,存储到~/data/下

--1. 创建data目录
[root@master hadoop]# mkdir ~/data
--2. 将以下两个文件上传到data目录下
- poetry1.txt
- poetry2.txt 

2) 在hdfs上创建存储目录

[root@master hadoop]# hdfs dfs -mkdir /input

3) 将本地文件系统上的上传到hdfs上,并在web上查看一下

[root@master hadoop]$ hdfs dfs -put ~/data/poetry* /input/

4) 运行自带的单词统计程序wordcount

[root@master hadoop]# cd $HADOOP_HOME
[root@master hadoop]# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.jar  wordcount /input /out

效果如下:

5) 查看webui

6) 查看part-r-00000文件

[root@master hadoop]# hdfs dfs -cat /out/part-r-00000
5.11 启动脚本的解读
1. start-all.sh
2. start-dfs.sh
3. hadoop-daemon.sh

5.12 集群守护进程不能开启的情况
1. 格式化集群时,报错原因
	- 当前用户使用不当
	- /etc/hosts里的映射关系填写错误
	- 免密登录认证异常
	- jdk环境变量配置错误
	- 防火墙没有关闭
2. namenode进程没有启动的原因:
	- 当前用户使用不当
	- 重新格式化时,忘记删除${hadoop.tmp.dir}/目录下的内容
	- 网络震荡,造成edit日志文件的事务ID序号不连续
3. datanode出现问题的原因
	- /etc/hosts里的映射关系填写错误
	- master免密登录此节点异常
	- 重新格式化时,忘记删除${hadoop.tmp.dir}/目录下的内容,造成datanode的唯一标识符不在新集群中。
4. 上述问题暴力解决办法:重新格式化
   	如果想重新格式化,那么需要先删除每台机器上的${hadoop.tmp.dir}指定路径下的所有内容,然后再格式化:最好也把logs目录下的内容也清空,因为日志内容已经是前一个废弃集群的日志信息了,留着也无用。
5.13 HDFS的常用shell命令
--1. 在命令行中输入hdfs,回车后,就会提示hdfs后可以使用哪些命令,其中有一个是dfs。
--2. 在命令行中输入hdfs dfs,回车后,就会提示dfs后可以添加的一些常用shell命令

常用shell命令分类如下:

注意:分布式文件系统的路径在命令行中 要从/开始写,即绝对路径

--1. 创建目录
[-mkdir [-p] <path> ...]	#在分布式文件系统上创建目录  -p,多层级创建

--2. 上传指令
[-put [-f] [-p] [-l] <localsrc> ... <dst>]   #将本地文件系统的文件上传到分布式文件系统
[-moveFromLocal <localsrc> ... <dst>]		#将本地文件系统的文件上传到分布式文件系统
[-copyFromLocal [-f] [-p] [-l] <localsrc> ... <dst>]

--3. 查看指令
[-ls [-d] [-h] [-R] [<path> ...]]		#查看分布式文件系统的目录里内容
[-cat [-ignoreCrc] <src> ...]	    	#查看分布式文件系统的文件内容	
[-tail [-f] <file>]						#查看分布式文件系统的文件内容	

--4. 下载指令
[-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-moveToLocal <src> <localdst>]
[-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]

--5. 删除指令
[-rm [-f] [-r|-R] [-skipTrash] <src> ...]
[-rmdir [--ignore-fail-on-non-empty] <dir> ...]

--6. 查看磁盘利用率和文件大小
[-df [-h] [<path> ...]] 查看分布式系统的磁盘利用率
[-du [-s] [-h] <path> ...]	#查看分布式系统上的文件大小	-h:human 以人类可读的方式显示

--7. 向分布式文件系统中的文件里追加内容,不支持在中间随意增删改操作
[-appendToFile <localsrc> ... <dst>]

--8. 修改权限的
[-chgrp [-R] GROUP PATH...]
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]

--9. 修改文件的副本数
[-setrep [-R] [-w] <rep> <path> ...]

点赞三连哦,关注我一起学习大数据吧,我会不定期更新更多!
如有疑问请指出,一一解答哦!!!嘤嘤嘤

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值