Hadoop 配置笔记

1. Hadoop默认的配置文件在:conf/core-site.xml,conf/hdfs-site.xml 和 conf/mapred-site.xml

2. 几个默认参数值:

Hadoop默认的临时文件夹由src/core/core-default.xml中的hadoop.tmp.dir设置,默认值为/tmp/hadoop-${user.name};

hdfs中namenode的namespace信息保存在${hadoop.tmp.dir}/dfs/name目录下,由src/hdfs/hdfs-default.xml中的dfs.name.dir指定;

hdfs中datanode的block文件保存在${hadoop.tmp.dir}/dfs/data目录下,由src/hdfs/hdfs-default.xml中的dfs.data.dir指定;

3. conf下的maters和slaves文件

从字面意思上来看,masters 是主要的,应该记录的是 namenode 的 IP 或者是域名。但是文件的名称确实有点误导人,它主要记录运行辅助 namenode 的所有机器。slaves 文件记录了运行 datanode 和 tasktracker 的所有机器。用户也可以改变  hadoop-env.sh  的 HADOOP_SLAVES 项的值,将 slaves 文件放在其他地方。这两个文件无需分发到各个工作节点,因为只有运行在 namenode 或 jobtracker 上的控制脚本能使用这些文件。不过,分发了也不会有什么影响。

4.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值