三台台式机组装成hadoop集群

目的:将三台普通的台式机组装成为,hadoop集群,供大数据开发测试。

材料:三台台式机,centos7 安装包(利用USBWriter做一个安装镜像),Java,hadoop安装包

步骤:

1.集群规划

主机名 ip                         安装的软件 进程
master 172.22.23.234jdk、hadoop namenode ressourcemanager
slave1 172.22.23.231jdk、hadoop datanode secondnamenode
slave2 172.22.23.232jdk、hadoop datanade

vi /etc/hosts 写入相应的主机名和ip.

为了更好的在Shell中区分三台主机,修改其显示的主机名,执行如下命令
sudo vim /etc/hostname
Shell 命令
master的/etc/hostname添加如下配置:
master
同样slave01的/etc/hostname添加如下配置:
slave01
同样slave02的/etc/hostname添加如下配置:
slave02

修改三台机器的/etc/hosts文件,添加同样的配置:


sudo vim /etc/hosts
Shell 命令
配置如下:
127.0.0.1 localhost
192.168.1.104 master
192.168.1.107 slave01
192.168.1.108 slave02

2.JDK安装,配置/etc/bash_profile

3.hadoop安装,配置/etc/bash_profile

4.修改hadoop配置文件

core-site.xml

hdfs-site.xml

mapred-site.xml(2.7.3中 mv mapred-site.xml.template mapred-site.xml)

yarn-site.xml

5.ssh 免登陆实现

这里直接用root用户,注意将防火墙关掉:

  #关闭防火墙
sudo systemctl stop firewalld.service
#关闭开机启动
sudo systemctl disable firewalld.service

免密码登录:

cd /root/.ssh/
ssh-keygen -t rsa

这里上个回车就ok,会在当前目录生成两个文件,一个公钥一个私钥

将公钥拷贝到其它机器上,实现免密码登录


ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2


这样会在slave1 的/root/.ssh/目录下生成一个authorized_keys 就可以实现master免登录到slave1,如下:


ssh slave1

6.hadoop启动

第一次启动得格式化

./bin/hdfs namenode -format 执行一次即可,切莫执行多次,(否则会产出多个秘钥,会导致后面配置出错,解决方案删除 这一步生成的VERSION,重新执行该步骤即可)

启动dfs

./sbin/start-dfs.sh

启动yarn./sbin/yarn-dfs.sh

7.查看运行

在master机器上执行 jps;

在slave1机器上执行jps;

在slave2机器上执行jps;


参考:

http://dblab.xmu.edu.cn/blog/1187-2/

http://dblab.xmu.edu.cn/blog/1177-2/



  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
集群规划: 主机名 IP 安装的软件 运行的进程 weekend01 192.168.1.201 jdk、hadoop NameNode、DFSZKFailoverController(zkfc) weekend02 192.168.1.202 jdk、hadoop NameNode、DFSZKFailoverController(zkfc) weekend03 192.168.1.203 jdk、hadoop ResourceManager weekend04 192.168.1.204 jdk、hadoop ResourceManager weekend05 192.168.1.205 jdk、hadoop、zookeeper DataNode、NodeManager、JournalNode、QuorumPeerMain weekend06 192.168.1.206 jdk、hadoop、zookeeper DataNode、NodeManager、JournalNode、QuorumPeerMain weekend07 192.168.1.207 jdk、hadoop、zookeeper DataNode、NodeManager、JournalNode、QuorumPeerMain 说明: 1.在hadoop2.0中通常由两个NameNode组,一个处于active状态,另一个处于standby状态。Active NameNode对外提供服务,而Standby NameNode则不对外提供服务 仅同步active namenode的状态,以便能够在它失败时快速进行切换。 hadoop2.0官方提供了两种HDFS HA的解决方案,一种是NFS,另一种是QJM。这里我们使用简单的QJM。在该方案中,主备NameNode之间通过一组JournalNode同步元数据 信息,一条数据只要功写入多数JournalNode即认为写入功。通常配置奇数个JournalNode 这里还配置了一个zookeeper集群,用于ZKFC(DFSZKFailoverController)故障转移,当Active NameNode挂掉了,会自动切换Standby NameNode为standby状态 2.hadoop-2.2.0中依然存在一个问题,就是ResourceManager只有一个,存在单点故障,hadoop-2.4.1解决了这个问题,有两个ResourceManager,一个是Active,一个 是Standby,状态由zookeeper进行协调

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值