hadoop常见配置含义

其中红色的配置为必须配置参数

 

参数取值备注
fs.default.name NameNode 的URI。hdfs://主机名/
dfs.hosts/dfs.hosts.exclude许可/拒绝DataNode列表。如有必要,用这个文件控制许可的datanode列表。
dfs.replication默认: 3
数据复制的分数
dfs.name.dir

举例:/home/username/hadoop/namenode

默认:/tmp

当这个值是一个逗号分割的目录列表时,nametable数据将会被复制到所有目录中做冗余备份。
dfs.data.dir

举例:/home/username/hadoop/datanode

默认: /tmp

当这个值是逗号分割的目录列表时,数据将被存储在所有目录下,通常分布在不同设备上。
   
mapred.system.dir Map/Reduce框架存储系统文件的HDFS路径。比如/hadoop/mapred/system/ 这个路径是默认文件系统(HDFS)下的路径, 须从服务器和客户端上均可访问。
mapred.local.dir 本地文件系统下逗号分割的路径列表,Map/Reduce临时数据存放的地方。多路径有助于利用磁盘i/o。
mapred.tasktracker.{map|reduce}.tasks.maximum 某一TaskTracker 上可运行的最大Map/Reduce任务数,这些任务将同时各自运行。默认为2(2个map和2个reduce),可依据硬件情况更改。
mapred.job.tracker JobTracker 的主机(或者IP)和端口。主机:端口 
mapred.hosts/mapred.hosts.exclude许可/拒绝TaskTracker列表。如有必要,用这个文件控制许可的TaskTracker列表。



hadoop.job.history.user.location

默认:mapred.output.dir/_logs/history

也可以设置为none 来停用

作业的历史文件记录目录

 

conf/slaves 写入全部的slave的机器名或者IP

 

nameNode记住每个文件被映射成的 blockId。每个blockId对应的block会被复制到不同的机器上多余一份。

 

HDFS端口

参数

描述

默认

配置文件

例子值

fs.default.name

namenode RPC交互端口

8020

core-site.xml

hdfs://master:8020/

dfs.http.address

 NameNode web管理端口

50070

 hdfs-site.xml 

0.0.0.0:50070

dfs.datanode.address

datanode 控制端口

50010 

hdfs-site.xml 

0.0.0.0:50010

dfs.datanode.ipc.address

datanodeRPC服务器地址和端口

 50020

hdfs-site.xml

0.0.0.0:50020

dfs.datanode.http.address

datanodeHTTP服务器和端口

 50075

hdfs-site.xml 

0.0.0.0:50075


 

MR端口

参数

描述

默认

 配置文件

例子值

mapred.job.tracker

job tracker交互端口 

8021

mapred-site.xml

hdfs://master:8021/

mapred.job.tracker.http.address

job trackerweb管理端口

50030

mapred-site.xml 

0.0.0.0:50030

mapred.task.tracker.http.address

task trackerHTTP端口

50060

mapred-site.xml

0.0.0.0:50060

                    
  
其他端口

参数

描述 

默认 

配置文件

例子值

dfs.secondary.http.address 

secondary NameNode web管理端口

 50090

hdfs-site.xml

0.0.0.0:28680





 

集群目录配置

 

其他配置

参数

描述 

默认 

配置文件

例子值

dfs.support.append 

支持文件append,主要是支持hbase

 false

hdfs-site.xml

true

dfs.replication 

文件复制的副本数,如果创建时不指定这个参数,就使用这个默认值作为复制的副本数

 3

hdfs-site.xml

2


参数

描述 

默认 

配置文件

例子值

dfs.name.dir

name node的元数据,,号隔开,hdfs会把元数据冗余复制到这些目录,一般这些目录是不同的块设备,不存在的目录会被忽略掉

{hadoop.tmp.dir}

/dfs/name

hdfs-site.xm

/hadoop/hdfs/name

dfs.name.edits.dir 

node node的事务文件存储的目录,,号隔开,hdfs会把事务文件冗余复制到这些目录,一般这些目录是不同的块设备,不存在的目录会被忽略掉

 ${dfs.name.dir}

hdfs-site.xm

${dfs.name.dir}

 fs.checkpoint.dir

secondary NameNode的元数据以,号隔开,hdfs会把元数据冗余复制到这些目录,一般这些目录是不同的块设备,不存在的目录会被忽略掉

${hadoop.tmp.dir}

/dfs/namesecondary

core-site.xml

/hadoop/hdfs/namesecondary

 fs.checkpoint.edits.dir

secondary NameNode的事务文件存储的目录,,号隔开,hdfs会把事务文件冗余复制到这些目录

${fs.checkpoint.dir}

core-site.xml

${fs.checkpoint.dir}

hadoop.tmp.dir

临时目录,其他临时目录的父目录

/tmp/hadoop-${user.name}

core-site.xml

/hadoop/tmp/hadoop-${user.name}

dfs.data.dir

data node的数据目录,,号隔开,hdfs会把数据存在这些目录下,一般这些目录是不同的块设备,不存在的目录会被忽略掉

${hadoop.tmp.dir}

/dfs/data

hdfs-site.xm

/hadoop/hdfs/data1/data,

/hadoop/hdfs/data2/data

mapred.local.dir

MapReduce产生的中间数据存放目录,,号隔开,hdfs会把数据存在这些目录下,一般这些目录是不同的块设备,不存在的目录会被忽略掉

${hadoop.tmp.dir}

/mapred/local

mapred-site.xml

/hadoop/hdfs/data1/mapred/local,

/hadoop/hdfs/data2/mapred/local

mapred.system.dir

MapReduce的控制文件

${hadoop.tmp.dir}

/mapred/system

mapred-site.xml

/hadoop/hdfs/data1/system

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值