hadoop集群搭建及其组件介绍和目录规划

搭建HADOOP-HA集群

集群角色分配

角色描述角色IP兼职兼职描述
NN1NameNode节点ip-nn1rmResourceManager
NN2NameNode节点ip-nn2his-serverJobHistoryServer
JN1JournalNode节点ip-jn1DN/NMDataNode/NodeManager
JN2JournalNode节点ip-jn2DN/NMDataNode/NodeManager
JN3JournalNode节点ip-jn3DN/NMDataNode/NodeManager
ZK1ZooKeeperip-zk1DN/NMDataNode/NodeManager
ZK2Zookeeperip-zk2DN/NMDataNode/NodeManager
ZK3Zookeeperip-zk3DN/NMDataNode/NodeManager
DNDataNodeip-其他NMNodeManager

基础组件部署

  • SSH:免密登入
    • NN1->其他节点
    • NN2->其他节点
  • jdk 1.8.x
  • scala 2.1.x
  • hadoop 2.7.1
  • spark 2.1.1 -> 针对spark
  • zookeeper -> 针对zk集群节点(ip-zk1,ip-zk2,ip-zk3)

基础目录创建

节点公共目录

  • /data0/hadoop_tmp
  • /data0/hadoop-logs
  • /data0/hadoop-pids
  • /data0/yarn-logs
  • /data0/spark-logs -> 针对spark

角色特有目录

角色私有目录
NN/data0/nn
DN/data0/dfs
NM/data0/yarn/local, /data0/yarn/logs
JN/data0/journal/data
ZK/data0/zookeeper/data, /data0/zookeeper/log

配置文件修改

  • core-site.xml
  • hdfs-site.xml
  • yarn-site.xml
  • mapred-site.xml

第一次启动集群步骤

  • zk集群启动

zkServer start

  • 格式化zookeeper上hadoop-ha目录

hdfs zkfc -formatZK

  • 启动journalnode(namenode日志同步服务)

hadoop-daemon.sh start journalnode

  • 格式化namenode

hdfs namenode -format

  • 启动namenode, 同步备用namenode, 启动备用namenode

hadoop-daemon.sh start namenode, hdfs namenode -bootstrapStandby, hadoop-daemon.sh start namenode

  • 启动zkfc(DFSZKFailoverController)

hadoop-daemon.sh start zkfc

  • 启动datanode

hadoop-daemons.sh start datanode

  • 启动yarn

start-yarn.sh

  • 启动yarn日志服务JobHistoryServer和spark的历史日志服务

mr-jobhistory-daemon.sh start historyserver

start-history-server.sh

  • 查看nn1 namenode状态 standby or active

hdfs haadmin -getServiceState nn1

测试集群步骤

  1. 测试hdfs
    • 本地文件上传到hdfs
    • 读取hdfs文件
  2. ha特性
    • nn1:active, nn2:standby -> 遇到nn1->down -> nn2:active
  3. 在yarn上提交任务
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值