云计算 - 1 - 三虚拟机Hadoop的安装和配置


目标

配置Hadoop云计算平台,包括NameNode和DataNode的设置。
测试Hadoop平台的运行情况。

1、配置三台虚拟机的JDK和网络环境

1.1 首先三台虚拟机的javac均能通过
在这里插入图片描述
安装Java的教程可参考:Linux 使用yum安装Java

1.2 修改各虚拟机的地址使其不同
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2、修改并添加主机名

在主节点进行,后面会复制给另外两个节点。
使用vim /etc/hosts打开hosts文件,在其中添加各个主机名和地址。
在这里插入图片描述

3、下载并解压hadoop

3.1 下载方式:
1、wegt 获取 tar 包:

wget http://mirrors.hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.1.tar.gz

2、百度网盘
链接:https://pan.baidu.com/s/1D2JeQsTb-ty4KDVWzaGKLg
提取码:98ud

3.2 解压
使用 tar 命令解压,注意修改 hadoop-xxx 后的版本号与自己的相同。

tar -zxvf hadoop-2.7.1.tar.gz

得到:
在这里插入图片描述

4、修改环境变量

使用vim ~/.bashrc(也有的修改vim /etc/profile),进入配置文件并添加:

export HADOOP_ HOME=/home/lucky/hadoop/hadoop-2.6.0
export HADOOP_ CONFIG_HOME= $HADOOP_ HOME/etc/hadoop
export PATH=$PATH: $HADOOP_HOME/bin
export PATH=$PATH: $HADOOP_HOME/sbin

注意修改路径和版本号与自己的一致。

5、修改hadoop配置文件

进入 hadoop 路径下的 etc 文件夹,修改以下几个文件。
5.1 配置 core-site.xml
在这里插入图片描述
5.2 配置 hdfs-site.xml
在这里插入图片描述

5.3 配置 mapred-site.xml
在这里插入图片描述
5.4 配置 hadoop-env.sh
在这里插入图片描述
5.5 配置 slaves

DataNode-1
DataNode-2

6、建立3个节点免密连接

6.1 修改节点名称
登陆每个节点,修改名字如hosts中配置的那样:
在这里插入图片描述
在主节点:vi /etc/hostname,修改为 NameNode-1

登录节点1:

ssh 192.168.203.130
vi /etc/hostname

修改内容为:DataNode-1
然后exit退出。

登录节点2:

ssh 192.168.203.131
vi /etc/hostname

修改内容为:DataNode-2
然后exit退出。

6.2 将文件复制给两个datanode
将 hosts 及 bashrc 文件同步到 datanode1,datanode2 节点:

scp /etc/hosts/ root@10.10.12.112:/etc/hosts
scp /etc/hosts/ root@10.10.12.113:/etc/hosts
scp ~/.bashrc root@datanode1:~/.bashrc
scp ~/.bashrc root@datanode2:~/.bashrc

6.3 生成访问密钥,实现无密码访问
按照下述操作,生成访问秘钥 ssh-keygen -t rsa,3台机器共享秘钥,可以无密码访问。

## 在主机生成密钥
ssh-keygen -t rsa (just input three enters)

## 在节点1生成密钥,发给主机
ssh DataNode-1
ssh-keygen -t rsa (just input three enters)
scp /root/.ssh/id_rsa.pub root@NameNode-1:/root/.ssh/id_rsa.pub.DataNode-1


## 在节点2生成密钥,发给主机
ssh DataNode-2
ssh-keygen -t rsa (just input three enters)
scp /root/.ssh/id_rsa.pub root@NameNode-1:/root/.ssh/id_rsa.pub.DataNode-2

## 回到主机,整合三个密钥,再发给两个节点。
ssh NameNode-1
cd /root/.ssh
cat id_rsa.pub >> authorized_keys
cat id_rsa.pub.DataNode-1 >> authorized_keys
cat id_rsa.pub.DataNode-2 >> authorized_keys
chmod 644 authorized_keys
scp ~/.ssh/authorized_keys root@DataNode-1:/root/.ssh/authorized_keys
scp ~/.ssh/authorized_keys root@DataNode-2:/root/.ssh/authorized_keys

6.4 测试链接
这里要关闭各个虚拟机的防火墙,否则可能会无法成功。
service iptables stop
然后分别使用

ssh DataNode-1
ssh DataNode-2
ssh NameNode-1

测试是否可以成功无密码访问。

7、启动hadoop

7.1 复制文件到节点
将主机配置好的 hadoop 和 jdk 发给另外两个节点。

scp -r /home/hadoop/ root@DataNode-1:/home/hadoop
scp -r /home/hadoop/ root@Datanode-2:/home/hadoop
scp -r /home/jdk/ root@DataNode-1:/home/jdk
scp -r /home/jdk/ root@DataNode-2:/home/jdk

7.2 格式化工作空间
使用cd $HADOOP_HOME cd bin进入bin目录下,然后使用hdfs namenode –format格式化工作空间。
在这里插入图片描述
7.3 启动 hadoop
使用start-all.sh启动程序
在这里插入图片描述
7.4 测试
查看 jps、hdfs dfsadmin -report 命令查看结果。
hdfs dfsadmin -report
在这里插入图片描述
jps
在这里插入图片描述
还可以使用:

hadoop fs -put aaa.txt /aaa.txt
hadoop fs -ls /

put文件进去并查看。
在这里插入图片描述

遇到的问题

刚开始时 DataNode 运行不起来,如下图所示:
在这里插入图片描述
后来查询相关资料得知,这是因为namenode和datanode的clusterID不一致导致的datanode无法启动,产生的原因是多次hdfs namenode -format,而每一次format都会产生新的clusterID,而datanode还保持原来的clusterID,导致二者不匹配。
解决的办法即是把datanode节点中的clusterID换成新的就好了,或者把namenode和datanode中上一次format的文件都给删除,重新format,二者的clusterID就又同步了。

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

元子方

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值