云计算 - 1 - 三虚拟机Hadoop的安装和配置
目标
配置Hadoop云计算平台,包括NameNode和DataNode的设置。
测试Hadoop平台的运行情况。
1、配置三台虚拟机的JDK和网络环境
1.1 首先三台虚拟机的javac均能通过

安装Java的教程可参考:Linux 使用yum安装Java
1.2 修改各虚拟机的地址使其不同:



2、修改并添加主机名
在主节点进行,后面会复制给另外两个节点。
使用vim /etc/hosts打开hosts文件,在其中添加各个主机名和地址。

3、下载并解压hadoop
3.1 下载方式:
1、wegt 获取 tar 包:
wget http://mirrors.hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.1.tar.gz
2、百度网盘
链接:https://pan.baidu.com/s/1D2JeQsTb-ty4KDVWzaGKLg
提取码:98ud
3.2 解压
使用 tar 命令解压,注意修改 hadoop-xxx 后的版本号与自己的相同。
tar -zxvf hadoop-2.7.1.tar.gz
得到:

4、修改环境变量
使用vim ~/.bashrc(也有的修改vim /etc/profile),进入配置文件并添加:
export HADOOP_ HOME=/home/lucky/hadoop/hadoop-2.6.0
export HADOOP_ CONFIG_HOME= $HADOOP_ HOME/etc/hadoop
export PATH=$PATH: $HADOOP_HOME/bin
export PATH=$PATH: $HADOOP_HOME/sbin
注意修改路径和版本号与自己的一致。
5、修改hadoop配置文件
进入 hadoop 路径下的 etc 文件夹,修改以下几个文件。
5.1 配置 core-site.xml

5.2 配置 hdfs-site.xml

5.3 配置 mapred-site.xml

5.4 配置 hadoop-env.sh

5.5 配置 slaves
DataNode-1
DataNode-2
6、建立3个节点免密连接
6.1 修改节点名称
登陆每个节点,修改名字如hosts中配置的那样:

在主节点:vi /etc/hostname,修改为 NameNode-1
登录节点1:
ssh 192.168.203.130
vi /etc/hostname
修改内容为:DataNode-1
然后exit退出。
登录节点2:
ssh 192.168.203.131
vi /etc/hostname
修改内容为:DataNode-2
然后exit退出。
6.2 将文件复制给两个datanode
将 hosts 及 bashrc 文件同步到 datanode1,datanode2 节点:
scp /etc/hosts/ root@10.10.12.112:/etc/hosts
scp /etc/hosts/ root@10.10.12.113:/etc/hosts
scp ~/.bashrc root@datanode1:~/.bashrc
scp ~/.bashrc root@datanode2:~/.bashrc
6.3 生成访问密钥,实现无密码访问
按照下述操作,生成访问秘钥 ssh-keygen -t rsa,3台机器共享秘钥,可以无密码访问。
## 在主机生成密钥
ssh-keygen -t rsa (just input three enters)
## 在节点1生成密钥,发给主机
ssh DataNode-1
ssh-keygen -t rsa (just input three enters)
scp /root/.ssh/id_rsa.pub root@NameNode-1:/root/.ssh/id_rsa.pub.DataNode-1
## 在节点2生成密钥,发给主机
ssh DataNode-2
ssh-keygen -t rsa (just input three enters)
scp /root/.ssh/id_rsa.pub root@NameNode-1:/root/.ssh/id_rsa.pub.DataNode-2
## 回到主机,整合三个密钥,再发给两个节点。
ssh NameNode-1
cd /root/.ssh
cat id_rsa.pub >> authorized_keys
cat id_rsa.pub.DataNode-1 >> authorized_keys
cat id_rsa.pub.DataNode-2 >> authorized_keys
chmod 644 authorized_keys
scp ~/.ssh/authorized_keys root@DataNode-1:/root/.ssh/authorized_keys
scp ~/.ssh/authorized_keys root@DataNode-2:/root/.ssh/authorized_keys
6.4 测试链接
这里要关闭各个虚拟机的防火墙,否则可能会无法成功。
service iptables stop
然后分别使用
ssh DataNode-1
ssh DataNode-2
ssh NameNode-1
测试是否可以成功无密码访问。
7、启动hadoop
7.1 复制文件到节点
将主机配置好的 hadoop 和 jdk 发给另外两个节点。
scp -r /home/hadoop/ root@DataNode-1:/home/hadoop
scp -r /home/hadoop/ root@Datanode-2:/home/hadoop
scp -r /home/jdk/ root@DataNode-1:/home/jdk
scp -r /home/jdk/ root@DataNode-2:/home/jdk
7.2 格式化工作空间
使用cd $HADOOP_HOME cd bin进入bin目录下,然后使用hdfs namenode –format格式化工作空间。

7.3 启动 hadoop
使用start-all.sh启动程序

7.4 测试
查看 jps、hdfs dfsadmin -report 命令查看结果。
hdfs dfsadmin -report

jps

还可以使用:
hadoop fs -put aaa.txt /aaa.txt
hadoop fs -ls /
put文件进去并查看。

遇到的问题
刚开始时 DataNode 运行不起来,如下图所示:

后来查询相关资料得知,这是因为namenode和datanode的clusterID不一致导致的datanode无法启动,产生的原因是多次hdfs namenode -format,而每一次format都会产生新的clusterID,而datanode还保持原来的clusterID,导致二者不匹配。
解决的办法即是把datanode节点中的clusterID换成新的就好了,或者把namenode和datanode中上一次format的文件都给删除,重新format,二者的clusterID就又同步了。
本文档详细介绍了如何在三台虚拟机上配置Hadoop集群,包括JDK和网络环境的设置、主机名修改、Hadoop的下载与安装、环境变量配置、配置文件修改、节点间免密连接以及启动Hadoop。在启动过程中遇到DataNode无法启动的问题,原因是NameNode和DataNode的clusterID不一致,解决方法是调整clusterID或重新format。
4783

被折叠的 条评论
为什么被折叠?



