第5章 Hadoop 2.6 Multi Node Cluster安裝指令

Hadoop Multi Node Cluster規劃如下圖,


  • 由多台電腦組成: 有一台主要的電腦master,在HDFS擔任NameNode角色,在MapReduce2(YARN)擔任ResourceManager角色
  • 有多台的電腦data1、data2、data3,在HDFS擔任DataNode角色,在MapReduce2(YARN)擔任NodeManager角色 



Hadoop Multi Node Cluster 規劃,整理如下表格:
伺服器名稱
IP
HDFS
YARN
master
192.168.0.100
NameNode
ResourceManager
data1
192.168.0.101
DataNode
NodeManager
data2
192.168.0.102
DataNode
NodeManager
data3
192.168.0.103
DataNode
NodeManager

第5章 <wbr>Hadoop <wbr>2.6 <wbr>Multi <wbr>Node <wbr>Cluster安裝指令




安裝步驟



   複製Single Node Cluster到data1
   設定data1伺服器
   複製data1伺服器至data2、data3、master
   設定data2、data3伺服器
   設定master伺服器
   master連線至data1、data2、data3建立HDFS目錄
   建立與格式化NameNode HDFS 目錄
   啟動Hadoop Multi Node cluster
   開啟Hadoop Resource-Manager Web介面
10    開啟NameNode Web介面


5.1.複製Single Node Cluster到data1
我們將之前所建立的Single Node Cluster VirtualBox hadoop虛擬機器複製到data1 
5.2.設定data1伺服器

Step2.編輯網路設定檔設定固定IP
sudo gedit /etc/network/interfaces
輸入下列內容
# interfaces(5) file used by ifup(8) and ifdown(8) auto lo iface lo inet loopback auto eth0 iface eth0 inet static address 192.168.0.101 netmask 255.255.255.0 network 192.168.0.0 gateway 192.168.0.1 dns-nameservers 192.168.0.1  
Step3.設定hostname
sudo gedit /etc/hostname
輸入下列內容:
data1
Step4.設定hosts檔案
sudo gedit /etc/hosts
輸入下列內容:
127.0.0.1 localhost 127.0.1.1 hadoop 192.168.0.100 master 192.168.0.101 data1 192.168.0.102 data2 192.168.0.103 data3 # The following lines are desirable for IPv6 capable hosts ::1 ip6-localhost ip6-loopback fe00::0 ip6-localnet ff00::0 ip6-mcastprefix ff02::1 ip6-allnodes ff02::2 ip6-allrouters
Step5.修改core-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml
在之間,輸入下列內容:
fs.default.name hdfs://master:9000  
Step6.修改yarn-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/yarn-site.xml
在之間,輸入下列內容:
yarn.resourcemanager.resource-tracker.address master:8025 yarn.resourcemanager.scheduler.address master:8030 yarn.resourcemanager.address master:8050
Step7.修改mapred-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/mapred-site.xml
在之間,輸入下列內容:
mapred.job.tracker master:54311
Step8.修改hdfs-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml
在之間,輸入下列內容:

   dfs.replication    3    dfs.datanode.data.dir   file:/usr/local/hadoop/hadoop_data/hdfs/datanode    
5.3.複製data1伺服器至data2、data3、master


5.4.設定data2、data3伺服器
Step2.設定data2固定IP
sudo gedit /etc/network/interfaces
輸入下列內容
# interfaces(5) file used by ifup(8) and ifdown(8) auto lo iface lo inet loopback auto eth0 iface eth0 inet static address 192.168.0.102 netmask 255.255.255.0 network 192.168.0.0 gateway 192.168.0.1 dns-nameservers 192.168.0.1  
Step3.設定data2主機名稱
sudo gedit /etc/hostname
輸入下列內容:
data2


Step6.設定data3固定IP
sudo gedit /etc/network/interfaces
輸入下列內容
# interfaces(5) file used by ifup(8) and ifdown(8) auto lo iface lo inet loopback auto eth0 iface eth0 inet static address 192.168.0.103 netmask 255.255.255.0 network 192.168.0.0 gateway 192.168.0.1 dns-nameservers 192.168.0.1  
Step7.設定data3主機名稱
sudo gedit /etc/hostname
輸入下列內容:
data3


5.5.設定master伺服器
Step2.設定master固定IP
sudo gedit /etc/network/interfaces
輸入下列內容
# interfaces(5) file used by ifup(8) and ifdown(8) auto lo iface lo inet loopback auto eth0 iface eth0 inet static address 192.168.0.100 netmask 255.255.255.0 network 192.168.0.0 gateway 192.168.0.1 dns-nameservers 192.168.0.1  
Step3.設定master主機名稱
sudo gedit /etc/hostname
輸入下列內容:
master

Step4.設定hdfs-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml
輸入下列內容:
 
  dfs.replication 3 dfs.namenode.name.dir file:/usr/local/hadoop/hadoop_data/hdfs/namenode

Step5.設定master檔案
sudo gedit /usr/local/hadoop/etc/hadoop/master
輸入下列內容:
 
master

Step6.設定slaves檔案
sudo gedit /usr/local/hadoop/etc/hadoop/slaves
輸入下列內容:
 
data1 data2 data3

5.6.master連線至data1、data2、data3建立HDFS目錄
master SSH連線至data1並建立HDFS目錄
ssh data1 sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode sudo chown hduser:hduser -R /usr/local/hadoop exit
master SSH連線至data2並建立HDFS目錄
ssh data2 sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode sudo chown hduser:hduser -R /usr/local/hadoop exit
master SSH連線至data3並建立HDFS目錄
ssh data3 sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode sudo chown hduser:hduser -R /usr/local/hadoop exit
5.7.建立與格式化NameNode HDFS 目錄
Step1 重新建立NameNode HDFS 目錄

sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs mkdir -p /usr/local/hadoop/hadoop_data/hdfs/namenode sudo chown -R hduser:hduser /usr/local/hadoop
Step2 格式化NameNode HDFS 目錄
hadoop namenode -format
5.8.啟動Hadoop
啟動start-dfs.sh,再啟動 start-yarn.sh
start-dfs.sh start-yarn.sh

啟動全部
start-all.sh
查看目前所執行的行程
jps
Hadoop Resource­Manager Web介面網址
http://master:8088/
5.9.開啟Hadoop Resource-Manager Web介面
開啟HDFS Web UI網址
http://master:50070/
5.10.開啟Hadoop Resource-Manager Web介面
開啟HDFS Web UI網址
http://master:50070/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值