搭建hadoop-2.6.0分布式集群

环境:Win7 + VM + Ubuntu

 

1、分别在3台虚拟Ubuntu机器上设置root用户密码,以后每次登录就用root

sudo -s 进入root权限模式

vim /etc/lightdm/lightdm.conf

 

[SeatDefaults]

user-session=ubuntu

greeter-session=unity-greeter

greeter-show-manual-login=true

allow-guest=false

 

启动root账号

sudo passwd root

三台机器修改后,再次用root用户登录

 

2、配置/etc/hosts/etc/hostname

 

 

 

其中一台hostnameSparkMaster,另外俩台分别为SparkWorker1SparkWorker2

并同步3台机器的hosts

3、配置无密登录

参考http://blog.csdn.net/korder/article/details/39541625

4、安装java环境

这个...就不废话了

5、去官网下载hadoop-2.6.0.tar.gz并安装

把下载下来的hadoop放在/usr/local/hadoop目录并解压

tar -xzvf  hadoop-2.6.0.tar.gz 解压到当前目录

 

6、修改系统配置文件

vim ~/.bashrc 

添加

export JAVA_HOME=/usr/lib/java/jdk1.7.0_71

export HADOOP_HOME=/usr/local/hadoop/hadoop-2.6.0

export JRE_HOME=${JAVA_HOME}/jre

export CLASS_PATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH

 

 

7、在hadoop目录创建相关文件夹

创建tmpdfs文件夹

dfs文件夹下 创建 namedata文件夹

 

8、修改hadoop配置文件

cd  /usr/local/hadoop/hadoop-2.6.0/etc

a) 

hadoop-env.sh

JAVA_HOME=${JAVA_HOME}

--->

JAVA_HOME=/usr/lib/java/jdk1.7.0_71

b) 

yarn-env.sh

export  JAVA_HOME=/usr/lib/java/jdk1.7.0_71

c) 

mapred-env.sh

export  JAVA_HOME=/usr/lib/java/jdk1.7.0_71

d) 

slaves

 

SparkWorker1

SparkWorker2

e) 

core-site.xml

 

f) 

hdfs-site.xml

 

 

g) 

mapred-site.xml

mv  mapred-site.xml.template mapred-site.xml

 

h) 

yarn-site.xml

 

 

9、把修改的所有配置文件拷贝到SparkWorker1SparkWorker2

   scp -r /usr/local/hadoop root@SparkWorker1:/usr/local/hadoop

   scp -r /usr/local/hadoop root@SparkWorker2:/usr/local/hadoop

 

  scp ~/.bashrc roo@SparkWorker1:~/.bashrc

  scp ~/.bashrc roo@SparkWorker2:~/.bashrc

 

10、启动并验证hadoop集群

a) 

SparkMaster机器上,格式化namenode

hadoop namenode -format

 

b) 进入sbin、启动hdfs

cd  /usr/local/hadoop/hadoop-2.6.0/sbin

./start-dfs.sh 

 

jps发现SparkMastrNameNodeSecondaryNameNode;

  SparkWorker1SparkWorker2分别都有DataNode

说明启动成功了。

        此时访问Web

http://SparkMaster:50070可以查看HDFS集群状况

c) 启动yarn集群

cd  /usr/local/hadoop/hadoop-2.6.0/sbin

./start-yarn.sh 

jps发现SparkMaster多出了ResourceManager

SparkWorker1SparkWorker2分别增加了NodeManager

说明OK了。

此时访问Web

http://SparkMaster:8088可以查看ResourceManager运行状态

http://SparkWorker1:8042查看SparkWorker1NodeManager运行状态

http://SparkWorker2:8042查看SparkWorker2NodeManager运行状态

 

d) 启动job history server

cd  /usr/local/hadoop/hadoop-2.6.0/sbin

./mr-jobhistory-daemon.sh start historyserver

启动后可以通过

http://SparkMaster:19888Web控制台查看job执行历史信息

结束history

./mr-jobhistory-daemon.sh  stop  historyserver

e) 验证hadoop集群

 

不多说了,自己在hdfs上准备好测试目录以及数据

 

运行hadoop自带的wordcount

hadoop jar ../hadoop/mapreduce/share/hadoop-mapreduce-example-2.6.9.jar   wordcount   /data/wordcount  /output/lwordcount

 

也可以通过Web页面观察一下运行状态

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

撸依天

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值