Hadoop集群规划

hadoop集群规划

HDFS中有NN和DN
YARN中有RM和NM
假设有三台机器:

hadoop000 192.168.199.234 部署:NN DN RM NM
hadoop001 192.168.199.235 部署:DN NM
hadoop002 192.168.199.236 部署:DN NM
  1. 首先在每台机器中修改/etc/hostname对应的hadoop000 hadoop001 hadoop002
  2. 修改hostname与ip的对应关系。修改/etc/hosts
192.168.199.234 hadoop000
192.168.199.235 hadoop001
192.168.199.236 hadoop002
192.168.199.236 localhost
  1. 每台机器安装ssh,并且设置免密码登录
    在hadoop00中进行操作:
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop000
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop001
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop002
  1. 每个节点上安装jdk
  2. 安装hadoop
    配置hadoop-env.sh中的java_home。
    配置core-site.xml,内容如下:
<property>
    <name>fs.default.name</name>
     <value>hdfs://hadoop000:9000</value>
</property>

配置hdfs-site.xml,内容如下:

<property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/app/tmp/hadoop-tmp</value>
</property>
<property>
    <name>dfs.namenode.name.dir</name>
    <value>/home/hadoop/app/tmp/dfs/name</value>
</property>
<property>
    <name>dfs.datanode.data.dir</name>
    <value>/home/hadoop/app/tmp/dfs/data</value>
</property>

配置yarn-site.xml,内容如下:

<property>
	<name>yarn.nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value>
</property>

<property>
	<name>yarn.resourcemanager.hostname</name>
	<value>hadoop000</value>
</property>

配置mapred-site.xml,内容如下:

<property>
	<name>mapreduce.framework.name</name>
	<value>yarn</value>
</property>
  1. 在slaves文件中,修改内容如下:
hadoop000
hadoop001
hadoop002
  1. 分发hadoop目录到其他机器
  2. NN格式化:hadoop namenode -format
  3. 启动HDFS
  4. 启动YARN
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值