Hadoop HDFS的维护

HDFS 维护手册

(0.19.1)

By云深作者:Terry  20093

转载请注明出处

 

1          HDFS概述

HDFSHadoop应用用到的一个最主要的分布式存储系统。一个HDFS集群主要由一个NameNode和很多个Datanode组成:Namenode管理文件系统的元数据,而Datanode存储了实际的数据。本文档主要关注用户以及管理员怎样和HDFS进行交互。基本上,客户端联系Namenode以获取文件的元数据或修饰属性,而真正的文件I/O操作是直接和Datanode进行交互的。

本文档从介绍如何安装和搭建HDFS集群入手,接着常用的文件系统命令,以及维护过程中涉及到的控制命令。

2          HDFS集群部署

 

2.1        安装

1)       用户从hadoop官方网站下载所需版本的安装文件,下载地址为:http://hadoop.apache.org/core/releases.html#Download;本文档选取的版本为hadoop-0.19.1

2)       将下载的压缩文件解压,目录为./hadoop-0.19.1,按照附录《hdfs 测试组网方案》中系统参数配置部分,修改./hadoop-0.19.1/conf中的文件;

3)       检查所有服务器上是否安装了J2sdk,要求版本为1.5及以上;并建立安装目录到/usr/local/j2sdk的软链接;

4)       hadoop目录上传到所有的服务器,放置在${HADOOP_HOME}目录下;

5)       挂载namenodesecondary namenodefsimageeditslogs备份目录;

2.2        启动

1)       进入namenode${HADOOP_HOME}

2)       格式化namenode文件系统,执行命令:bin/hadoop namenode –format

3)       启动hdfs,执行命令:bin/start-dfs.sh。该脚本首先启动namenode,然后读取./conf/slaves中的datanode列表,逐个启动;最后读取./conf/masterssecondary namenode地址,启动secondary namenode

启动datanodesecondary namenode时,脚本通过ssh从当前机器登录到其他节点的,涉及到身份验证,需要输入相应的密码信息,比较繁琐。可参考ssh中免密码登录解决方法。

3          FS Shell使用指南

调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args>的形式。 所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,schemehdfs,对本地文件系统,schemefile。其中schemeauthority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。一个HDFS文件或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child,或者更简单的/parent/child(假设你配置文件中的默认值是namenode:namenodeport)。大多数FS Shell命令的行为和对应的Unix Shell命令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout

 

3.1        cat

使用方法:hadoop fs -cat URI [URI …]

将路径指定文件的内容输出到stdout

示例:

n         hadoop fs -cat hdfs://host1:port1/file1 hdfs://host2:port2/file2

n         hadoop fs -cat file:///file3 /user/hadoop/file4

返回值:
成功返回0,失败返回-1

3.2        chgrp

使用方法:hadoop fs -chgrp [-R] GROUP URI [URI …] Change group association of files. With -R, make the change recursively through the directory structure. The user must be the owner of files, or else a super-user. Additional information is in the Permissions User Guide.改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。更多的信息请参见HDFS权限用指南

3.3        chmod

使用方法hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI …]

改变文件的权限。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。更多的信息请参见HDFS权限用户指南

3.4        chown

使用方法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]

改变文件的拥有者。使用-R将使改变在目录结构下递归进行。命令的使用者必须是超级用户。更多的信息请参见HDFS权限用户指南

3.5        copyFromLocal

使用方法:hadoop fs -copyFromLocal <localsrc> URI

除了限定源路径是一个本地文件外,和put命令相似。

3.6        copyToLocal

使用方法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>

除了限定目标路径是一个本地文件外,和get命令类似。

3.7        cp

使用方法:hadoop fs -cp URI [URI …] <dest>

将文件从源路径复制到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。

示例:

n         hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2

n         hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir

返回值:

成功返回0,失败返回-1

3.8        du

使用方法:hadoop fs -du URI [URI …]

显示目录中所有文件的大小,或者当只指定一个文件时,显示此文件的大小。示例:

 hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1 

返回值:

成功返回0,失败返回-1 

3.9        dus

使用方法:hadoop fs -dus <args>

显示文件的大小。

3.10    expunge

使用方法:hadoop fs -expunge

清空回收站。请参考HDFS设计文档以获取更多关于回收站特性的信息。

3.11    get

使用方法:hadoop fs -get [-ignorecrc] [-crc] <src> <localdst> 

复制文件到本地文件系统。可用-ignorecrc选项复制CRC校验失败的文件。使用-crc选项复制文件以及CRC信息。

示例:

n         hadoop fs -get /user/hadoop/file localfile

n         hadoop fs -get hdfs://host:port/user/hadoop/file localfile

返回值:

成功返回0,失败返回-1

3.12    getmerge

使用方法:hadoop fs -getmerge <src> <localdst> [addnl]

接受一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件。addnl是可选的,用于指定在每个文件结尾添加一个换行符。

3.13    ls

使用方法:hadoop fs -ls <args>

如果是文件,则按照如下格式返回文件信息:

文件名 <副本数> 文件大小 修改日期 修改时间 权限 用户ID ID 

如果是目录,则返回它直接子文件的一个列表,就像在Unix中一样。目录返回列表的信息如下:

目录名 <dir> 修改日期 修改时间 权限 用户ID ID 

示例:

hadoop fs -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://host:port/user/hadoop/dir1 /nonexistentfile 

返回值:

成功返回0,失败返回-1 

3.14    lsr

使用方法:hadoop fs -lsr <args> 
ls命令的递归版本。类似于Unix中的ls -R

3.15    mkdir

使用方法:hadoop fs -mkdir <paths> 

接受路径指定的uri作为参数,创建这些目录。其行为类似于Unixmkdir -p,它会创建路径中的各级父目录。

示例:

n         hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2

n         hadoop fs -mkdir hdfs://host1:port1/user/hadoop/dir hdfs://host2:port2/user/hadoop/dir

返回值:

成功返回0,失败返回-1

3.16    movefromLocal

使用方法:dfs -moveFromLocal <src> <dst>

输出一个”not implemented“信息。

3.17    mv

使用方法:hadoop fs -mv URI [URI …] <dest>

将文件从源路径移动到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。不允许在不同的文件系统间移动文件。不支持文件夹重命令。

示例:

n         hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2

n         hadoop fs -mv hdfs://host:port/file1 hdfs://host:port/file2 hdfs://host:port/file3 hdfs://host:port/dir1

返回值:

成功返回0,失败返回-1

3.18    put

使用方法:hadoop fs -put <localsrc> ... <dst>

从本地文件系统中复制单个或多个源路径到目标文件系统。也支持从标准输入中读取输入写入目标文件系统。

n         hadoop fs -put localfile /user/hadoop/hadoopfile

n         hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir

n         hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile

n         hadoop fs -put - hdfs://host:port/hadoop/hadoopfile 

从标准输入中读取输入。

返回值:

成功返回0,失败返回-1

3.19    rm

使用方法:hadoop fs -rm URI [URI …]

删除指定的文件。只删除非空目录和文件。请参考rmr命令了解递归删除。

示例:

n         hadoop fs -rm hdfs://host:port/file /user/hadoop/emptydir

返回值:

成功返回0,失败返回-1

3.20    rmr

使用方法:hadoop fs -rmr URI [URI …]

delete的递归版本。

示例:

n         hadoop fs -rmr /user/hadoop/dir

n         hadoop fs -rmr hdfs://host:port/user/hadoop/dir

返回值:

成功返回0,失败返回-1

3.21    setrep

使用方法:hadoop fs -setrep [-R] <path>

改变一个文件的副本系数。-R选项用于递归改变目录下所有文件的副本系数。

示例:

n         hadoop fs -setrep -w 3 -R /user/hadoop/dir1

返回值:

成功返回0,失败返回-1

3.22    stat

使用方法hadoop fs -stat URI [URI …]

返回指定路径的统计信息。

示例:

n         hadoop fs -stat path

返回值:

成功返回0,失败返回-1

3.23    tail

使用方法:hadoop fs -tail [-f] URI

将文件尾部1K字节的内容输出到stdout。支持-f选项,行为和Unix中一致。

示例:

n         hadoop fs -tail pathname

返回值:
成功返回0,失败返回-1

3.24    test

使用方法:hadoop fs -test -[ezd] URI

选项:
-e
检查文件是否存在。如果存在则返回0

-z 检查文件是否是0字节。如果是则返回0

-d 如果路径是个目录,则返回1,否则返回0

示例:

n         hadoop fs -test -e filename

3.25    text

使用方法:hadoop fs -text <src> 

将源文件输出为文本格式。允许的格式是zipTextRecordInputStream

3.26    touchz

使用方法:hadoop fs -touchz URI [URI …] 

创建一个0字节的空文件。

示例:

n         hadoop -touchz pathname

返回值:
成功返回0,失败返回-1

 

 

4         命令手册

4.1        概述

所有的hadoop命令均由bin/hadoop脚本引发。不指定参数运行hadoop脚本会打印所有命令的描述。

用法:hadoop [--config confdir] [COMMAND] [GENERIC_OPTIONS] [COMMAND_OPTIONS]

Hadoop有一个选项解析框架用于解析一般的选项和运行类。

命令选项

描述

--config confdir

覆盖缺省配置目录。缺省是${HADOOP_HOME}/conf

GENERIC_OPTIONS

多个命令都支持的通用选项。

COMMAND 
命令选项S

各种各样的命令和它们的选项会在下面提到。这些命令被分为 用户命令 管理命令两组。

4.1.1   常规选项

下面的选项被 dfsadmin, fs, fsck job支持。 应用程序要实现 Tool来支持 常规选项

GENERIC_OPTION

描述

-conf <configuration file>

指定应用程序的配置文件。

-D <property=value>

为指定property指定值value

-fs <local|namenode:port>

指定namenode

-jt <local|jobtracker:port>

指定job tracker。只适用于job

-files <逗号分隔的文件列表>

指定要拷贝到map reduce集群的文件的逗号分隔的列表。 只适用于job

-libjars <逗号分隔的jar列表>

指定要包含到classpath中的jar文件的逗号分隔的列表。 只适用于job

-archives <逗号分隔的archive列表>

指定要被解压到计算节点上的档案文件的逗号分割的列表。 只适用于job

 

4.2        用户命令

hadoop集群用户的常用命令。

4.2.1   archive

创建一个hadoop档案文件。参考 Hadoop Archives.

用法:hadoop archive -archiveName NAME <src>* <dest>

命令选项

描述

-archiveName NAME

要创建的档案的名字。

src

文件系统的路径名,和通常含正则表达的一样。

dest

保存档案文件的目标目录。

4.2.2   distcp

递归地拷贝文件或目录。参考DistCp指南以获取等多信息。

用法:hadoop distcp <srcurl> <desturl>

命令选项

描述

srcurl

Url

desturl

目标Url

4.2.3   fs

用法:hadoop fs [GENERIC_OPTIONS] [COMMAND_OPTIONS]

运行一个常规的文件系统客户端。

各种命令选项可以参考HDFS Shell指南

4.2.4   fsck

运行HDFS文件系统检查工具。参考Fsck了解更多。

用法:hadoop fsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]]

命令选项

描述

<path>

检查的起始目录。

-move

移动受损文件到/lost+found

-delete

删除受损文件。

-openforwrite

打印出写打开的文件。

-files

打印出正被检查的文件。

-blocks

打印出块信息报告。

-locations

打印出每个块的位置信息。

-racks

打印出data-node的网络拓扑结构。

4.2.5   jar

运行jar文件。用户可以把他们的Map Reduce代码捆绑到jar文件中,使用这个命令执行。

用法hadoop jar <jar> [mainClass] args...

streaming作业是通过这个命令执行的。参考Streaming examples中的例子。

Word count例子也是通过jar命令运行的。参考Wordcount example

4.2.6   job

用于和Map Reduce作业交互和命令。

用法:hadoop job [GENERIC_OPTIONS] [-submit <job-file>] | [-status <job-id>] | [-counter <job-id> <group-name> <counter-name>] | [-kill <job-id>] | [-events <job-id> <from-event-#> <#-of-events>] | [-history [all] <jobOutputDir>] | [-list [all]] | [-kill-task <task-id>] | [-fail-task <task-id>]

命令选项

描述

-submit <job-file>

提交作业

-status <job-id>

打印mapreduce完成百分比和所有计数器。

-counter <job-id> <group-name> <counter-name>

打印计数器的值。

-kill <job-id>

杀死指定作业。

-events <job-id> <from-event-#> <#-of-events>

打印给定范围内jobtracker接收到的事件细节。

-history [all] <jobOutputDir>

-history <jobOutputDir> 打印作业的细节、失败及被杀死原因的细节。更多的关于一个作业的细节比如成功的任务,做过的任务尝试等信息可以通过指定[all]选项查看。

-list [all]

-list all显示所有作业。-list只显示将要完成的作业。

-kill-task <task-id>

杀死任务。被杀死的任务不会不利于失败尝试。

-fail-task <task-id>

使任务失败。被失败的任务会对失败尝试不利。

4.2.7   pipes

运行pipes作业。

用法:hadoop pipes [-conf <path>] [-jobconf <key=value>, <key=value>, ...] [-input <path>] [-output <path>] [-jar <jar file>] [-inputformat <class>] [-map <class>] [-partitioner <class>] [-reduce <class>] [-writer <class>] [-program <executable>] [-reduces <num>]

命令选项

描述

-conf <path>

作业的配置

-jobconf <key=value>, <key=value>, ...

增加/覆盖作业的配置项

-input <path>

输入目录

-output <path>

输出目录

-jar <jar file>

Jar文件名

-inputformat <class>

InputFormat

-map <class>

Java Map

-partitioner <class>

Java Partitioner

-reduce <class>

Java Reduce

-writer <class>

Java RecordWriter

-program <executable>

可执行程序的URI

-reduces <num>

reduce个数

4.2.8   version

打印版本信息。

用法:hadoop version

4.2.9   CLASSNAME

hadoop脚本可用于调调用任何类。

用法:hadoop CLASSNAME

运行名字为CLASSNAME的类。

 

4.3        管理命令

hadoop集群管理员常用的命令。

4.3.1   balancer

运行集群平衡工具。管理员可以简单的按Ctrl-C来停止平衡过程。参考Rebalancer了解更多。

用法:hadoop balancer [-threshold <threshold>]

命令选项

描述

-threshold <threshold>

磁盘容量的百分比。这会覆盖缺省的阀值。

4.3.2   daemonlog

获取或设置每个守护进程的日志级别。

用法:hadoop daemonlog -getlevel <host:port> <name> 

用法:hadoop daemonlog -setlevel <host:port> <name> <level>

命令选项

描述

-getlevel <host:port> <name>

打印运行在<host:port>的守护进程的日志级别。这个命令内部会连接http://<host:port>/logLevel?log=<name>

-setlevel <host:port> <name> <level>

设置运行在<host:port>的守护进程的日志级别。这个命令内部会连接http://<host:port>/logLevel?log=<name>

4.3.3   datanode

运行一个HDFSdatanode

用法:hadoop datanode [-rollback]

命令选项

描述

-rollback

datanode回滚到前一个版本。这需要在停止datanode,分发老的hadoop版本之后使用。

4.3.4   dfsadmin

运行一个HDFSdfsadmin客户端。

用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get | wait] [-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status | details | force] [-metasave filename] [-setQuota <quota> <dirname>...<dirname>] [-clrQuota <dirname>...<dirname>] [-help [cmd]]

命令选项

描述

-report

报告文件系统的基本信息和统计信息。

-safemode enter | leave | get | wait

安全模式维护命令。安全模式是Namenode的一个状态,这种状态下,Namenode 

1. 不接受对名字空间的更改(只读)

2. 不复制或删除块

Namenode会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手动进入,但是这样的话也必须手动关闭安全模式。

-refreshNodes

重新读取hostsexclude文件,更新允许连到Namenode的或那些需要退出或入编的Datanode的集合。

-finalizeUpgrade

终结HDFS的升级操作。Datanode删除前一个版本的工作目录,之后Namenode也这样做。这个操作完结整个升级过程。

-upgradeProgress status | details | force

请求当前系统的升级状态,状态的细节,或者强制升级操作进行。

-metasave filename

保存Namenode的主要数据结构到hadoop.log.dir属性指定的目录下的<filename>文件。对于下面的每一项,<filename>中都会一行内容与之对应

1. Namenode收到的Datanode的心跳信号

2. 等待被复制的块

3. 正在被复制的块

4. 等待被删除的块

-setQuota <quota> <dirname>...<dirname>

为每个目录 <dirname>设定配额<quota>。目录配额是一个长整型整数,强制限定了目录树下的名字个数。

命令会在这个目录上工作良好,以下情况会报错:

1. N不是一个正整数,或者

2. 用户不是管理员,或者

3. 这个目录不存在或是文件,或者

4. 目录会马上超出新设定的配额。

-clrQuota <dirname>...<dirname>

为每一个目录<dirname>清除配额设定。

命令会在这个目录上工作良好,以下情况会报错:

1. 这个目录不存在或是文件,或者

2. 用户不是管理员。

如果目录原来没有配额不会报错。

-help [cmd]

显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮助信息。

4.3.5   jobtracker

运行MapReduce job Tracker节点。

用法:hadoop jobtracker

4.3.6   namenode

运行namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚

用法:hadoop namenode [-format] | [-upgrade] | [-rollback] | [-finalize] | [-importCheckpoint]

命令选项

描述

-format

格式化namenode。它启动namenode,格式化namenode,之后关闭namenode

-upgrade

分发新版本的hadoop后,namenode应以upgrade选项启动。

-rollback

namenode回滚到前一版本。这个选项要在停止集群,分发老的hadoop版本后使用。

-finalize

finalize会删除文件系统的前一状态。最近的升级会被持久化,rollback选项将再不可用,升级终结操作之后,它会停掉namenode

-importCheckpoint

从检查点目录装载镜像并保存到当前检查点目录,检查点目录由fs.checkpoint.dir指定。

4.3.7   secondarynamenode

运行HDFSsecondary namenode。参考Secondary Namenode了解更多。

用法:hadoop secondarynamenode [-checkpoint [force]] | [-geteditsize]

命令选项

描述

-checkpoint [force]

如果EditLog的大小 >= fs.checkpoint.size,启动Secondary namenode的检查点过程。 如果使用了-force,将不考虑EditLog的大小。

-geteditsize

打印EditLog大小。

4.3.8   tasktracker

运行MapReducetask Tracker节点。

用法:hadoop tasktracker

 

 

5          附录HDFS 测试组网方案

 

一,配置策略  

 

HdfsNameNodeSecondaryNameNodeDataNode三种网元组成。各网元作用以及部署策略如下:

1,   NameNode作为Master,部署在一台机器上。NameNode中的Fsimageeditslog是系统最核心的元数据信息,为了保证元数据信息的可靠性,将FsimageeditslogNameNodeSecondaryNameNode上各备份一份。

2,   SecondaryNameNode,用来归并NameNode上的Fsimageeditslog,形成checkpoint ,同时避免editslog文件过大。部署在一台机器上。

3,   DataNode负责Data Block的读写工作,并且在MapRed时,作为数据源,一般和TaskTracker部署在一起。每个DataNode占用一台机器。当需要MapRed时,每台机器上部署一个DataNode和一个TaskTracker服务;       

 

JobTrackerMapRed中的网元,单独占用一台服务器,暂保留。

 

从增强容错方面的考虑,需要定期备份SecondaryNameNode上生成的CheckPoint

根据hdfs官方网站上的参数配置,我们的测试环境节点数较少,采用默认配置即可,可在测试过程中,根据情况进行调整。

 

二,测试环境  

 

         现有服务器如下:

A10.24.1.10,10.24.1.12,10.24.1.14,10.24.1.16,10.24.1.18,

B10.24.1.24, 10.24.1.2610.24.1.24210.24.1.24410.24.1.246

其中10.24.1.24的密码是root/ mSpaCes0.2外,其余均为默认密码hadoop123

 

A中机器,Schubert在做测试,其中10.24.1.10Master,即NameNodeSecondaryNameNodeJobTracker节点,其余为DataNodeTaskTracker。采用默认端口配置。

B中没有hadoop环境,可用来作为Master节点。

 

环境中机器配置如下:

主机名

地址

可用空间

挂载点

总内存

可用内存

RAID0-LVS2

10.24.1.24

844G  

/

3948

1686

demo-LVS1

10.24.1.26

395G

/

3948

2812

DEMO-WEB2

10.24.1.242

796G

/

16047

8522

RAID0-DB3

10.24.1.244

813G

/

16047

7309

RAID0-DB4

10.24.1.246

807G

/

16047

8348

nd0-rack0-cloud

10.24.1.10

781G

/data

3948

2158

nd1-rack0-cloud

10.24.1.12

763G

/data

3948

1044

nd2-rack0-cloud

10.24.1.14

763G

/data

3948

1139

nd3-rack0-cloud

10.24.1.16

763G

/data

3948

1119

nd4-rack0-cloud

10.24.1.18

764G

/data

3948

769

 

三,节点分配

 

根据节点磁盘空间和内存使用情况,分配如下:

1,       选取节点 RAID0-DB310.24.1.244NameNode

2,       选取节点demo-LVS110.24.1.26Secondary NameNode,并通过nfs,共享一个目录给NameNode作为FsImageEditslog的备份目录;

3,       demo-LVS110.24.1.26除外,均为DataNode,每个节点分配存储空间约为700G。总存储空间为700G×9=6300G

 

预分配内存按照hdfs默认参数配置,通常为1G

 

即分配表如下:

主机名

地址

网元

RAID0-LVS2

10.24.1.24

DataNode 

demo-LVS1

10.24.1.26

Secondary NameNode

DEMO-WEB2

10.24.1.242

DataNode

RAID0-DB3

10.24.1.244

NameNode + DataNode

RAID0-DB4

10.24.1.246

DataNode

nd0-rack0-cloud

10.24.1.10

DataNode

nd1-rack0-cloud

10.24.1.12

DataNode

nd2-rack0-cloud

10.24.1.14

DataNode

nd3-rack0-cloud

10.24.1.16

DataNode

nd4-rack0-cloud

10.24.1.18

DataNode

 

四,配置参数设置

 

系统相关参数如下:

1,                 ${HADOOP_HOME} 目录为 /opt/hdfs_test/hadoop-0.19.1,hadoop-0.19.1源文件放在该目下。

2,                 ${HADOOP_HOME}/conf/hadoop-env.sh修改如下:

a)   设置JAVA_HOME环境变量:

export JAVA_HOME=/usr/local/j2sdk

b)  设置HADOOP_PID_DIR 环境变量:

export HADOOP_PID_DIR=${HADOOP_HOME}/run/pids

 

3,                 ${HADOOP_HOME}/conf/masters中添加secondary namenode地址如下:、

10.24.1.26

4,                 ${HADOOP_HOME}/conf/slaves中添加datanode地址列表如下:

10.24.1.10

10.24.1.12

10.24.1.14

10.24.1.16

10.24.1.18

10.24.1.24

10.24.1.242

10.24.1.244

10.24.1.246

5,                 ${HADOOP_HOME}/conf/hadoop-site.xml修改如下:

a)   添加参数 hadoop.tmp.dir

<property>

  <name>hadoop.tmp.dir</name>

  <value>/data/hdfs_test/ hadoop-${user.name}</value>

  <description>A base for other temporary directories.</description>

</property>

 

b)  添加参数 fs.default.name,即NameNodeURI相关端口在默认值基础上增加1000,其余端口亦按此规则修改。

<property>

  <name>fs.default.name</name>

  <value>hdfs://RAID0-DB3:10000</value>

  <description>The name of the default file system.  A URI whose

  scheme and authority determine the FileSystem implementation.  The

  uri's scheme determines the config property (fs.SCHEME.impl) naming

  the FileSystem implementation class.  The uri's authority is used to

  determine the host, port, etc. for a filesystem.</description>

</property>

c)   Secondary namenode,datanode,namenode相关端口配置如下:

<property>

  <name>dfs.secondary.http.address</name>

  <value>0.0.0.0:51090</value>

  <description>

    The secondary namenode http server address and port.

    If the port is 0 then the server will start on a free port.

  </description>

</property>

 

<property>

  <name>dfs.datanode.address</name>

  <value>0.0.0.0:51010</value>

  <description>

    The address where the datanode server will listen to.

    If the port is 0 then the server will start on a free port.

  </description>

</property>

 

<property>

  <name>dfs.datanode.http.address</name>

  <value>0.0.0.0:51075</value>

  <description>

    The datanode http server address and port.

    If the port is 0 then the server will start on a free port.

  </description>

</property>

 

<property>

  <name>dfs.datanode.ipc.address</name>

  <value>0.0.0.0:51020</value>

  <description>

    The datanode ipc server address and port.

    If the port is 0 then the server will start on a free port.

  </description>

</property>

 

<property>

  <name>dfs.http.address</name>

  <value>0.0.0.0:51070</value>

  <description>

    The address and the base port where the dfs namenode web ui will listen on.

    If the port is 0 then the server will start on a free port.

  </description>

</property>

 

<property>

  <name>dfs.datanode.https.address</name>

  <value>0.0.0.0:51475</value>

</property>

 

<property>

  <name>dfs.https.address</name>

  <value>0.0.0.0:51470</value>

</property

d)  Namenode Fsimageeditslog存放目录:

<property>

  <name>dfs.name.dir</name>

  <value>${hadoop.tmp.dir}/name/local,${hadoop.tmp.dir}/name /bak1</value>

  <description>Determines where on the local filesystem the DFS name node

      should store the name table(fsimage).  If this is a comma-delimited list

      of directories then the name table is replicated in all of the

      directories, for redundancy. </description>

</property>

 

<property>

  <name>dfs.name.edits.dir</name>

  <value>${dfs.name.dir} </value>

  <description>Determines where on the local filesystem the DFS name node

      should store the transaction (edits) file. If this is a comma-delimited list

      of directories then the transaction file is replicated in all of the

      directories, for redundancy. Default value is same as dfs.name.dir

  </description>

</property

其中name/bak1secondary namenode 共享的目录

 

e)   Secondary namenode checkpoint imageeditslog存放目录:

<property>

  <name>fs.checkpoint.dir</name>

  <value>${hadoop.tmp.dir}/name_checkpoint/local,${hadoop.tmp.dir}/ name_checkpoint /bak1</value>

  <description>Determines where on the local filesystem the DFS secondary

      name node should store the temporary images to merge.

      If this is a comma-delimited list of directories then the image is

      replicated in all of the directories for redundancy.

  </description>

</property>

 

<property>

  <name>fs.checkpoint.edits.dir</name>

  <value>${fs.checkpoint.dir}</value>

  <description>Determines where on the local filesystem the DFS secondary

      name node should store the temporary edits to merge.

      If this is a comma-delimited list of directoires then teh edits is

      replicated in all of the directoires for redundancy.

      Default value is same as fs.checkpoint.dir

  </description>

</property>

 

其中name_checkpoint /bak1namenode 共享的目录

 

f)   设置dfs.web.ugi:

<property>

  <name>dfs.web.ugi</name>

  <value>hdfs_test,hdfs_test</value>

  <description>The user account used by the web interface.

    Syntax: USERNAME,GROUP1,GROUP2, ...

  </description>

</property>

 

g)  设置为hdfs以外系统预留磁盘空间(100G):

<property>

  <name>dfs.datanode.du.reserved</name>

  <value> 107374182400 </value>

  <description>Reserved space in bytes per volume. Always leave this much space free for non dfs use.

  </description>

</property>

 

 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值