2 Hadoop集群搭建

Hadoop集群搭建

安装hadoop

  • 下载hadoop
  • 将下载的hadoop包解压缩到/usr/local文件夹下
  • 配置hadoop环境变量

配置hadoop

cd hadoop/etc/hadoop/

修改core-site.xml

<property>
  <name>fs.default.name</name>
  <value>hdfs://spark1:9000</value>
</property>

修改hdfs-site.xml

<property>
  <name>dfs.name.dir</name>
  <value>/usr/local/data/namenode</value>
</property>
<property>
  <name>dfs.data.dir</name>
  <value>/usr/local/data/datanode</value>
</property>
<property>
  <name>dfs.tmp.dir</name>
  <value>/usr/local/data/tmp</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>3</value>
</property>

修改mapred-site.xml

<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
</property>

修改yarn-site.xml

<property>
  <name>yarn.resourcemanager.hostname</name>
  <value>spark1</value>
</property>
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>

修改slaves

spark1
spark2
spark3

启动hadoop

配置另外两台
  • 使用如上配置在另外两台机器上搭建hadoop,可以使用scp命令将spark1上面的hadoop安装包和.bashrc配置文件都拷贝过去。
  • 要记得对.bashrc文件进行source,以让它生效。
  • 记得在spark2spark3/usr/local目录下创建data目录。
启动hdfs集群
  • 格式化namenode:在spark1上执行以下命令,hdfs namenode -format
  • 启动hdfs集群:start-dfs.sh
  • 验证启动是否成功:jps、50070端口
spark1:namenode、datanode、secondarynamenode

spark2:datanode

spark3:datanode
启动yarn集群
  • 启动yarn集群:start-yarn.sh
  • 验证启动是否成功:jps、8088端口
spark1:resourcemanager、nodemanager

spark2:nodemanager

spark3:nodemanager
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值