一、 搭建hadoop集群
可以先进行jdk和hadoop的安装,经过克隆之后,克隆的虚拟机里面也会存在jdk和hadoop(我用的是完整克隆,链接克隆应该也可以),就不需要多次安装了。
1、安装三台虚拟机并实现互通
(1)第一台虚拟机正常安装,后两台直接克隆(右键->管理->克隆)。
可能会出现虚拟机的IP地址相同(没有出现直接跳过这一步)。若出现这种情况:
先关闭虚拟机,然后右键虚拟机设置
再重新打开即可。
或者通过以下命令修改IP地址(每次关闭虚拟机,再开启都要改):
ifconfig ens33 192.168.253.131 netmask 255.255.255.0
(2)执行命令:vim /etc/hostname
, 将三台主机名分别改为server1、server2、server3
(3)通过ifconfig查看三台虚拟机的ip地址
得到三台虚拟机的ip后,修改这三台虚拟机的对应的主机名
192.168.253.129 server1
192.168.253.131 server2
192.168.253.130 server3
执行命令:vim /etc/hosts
, 保存三台主机的ip和主机名,实现网络互通
(4)然后将三台虚拟机重启后生效。
执行命令:ping -c 3 server3
查看几台虚拟机之间是否能ping通
2、设置三台虚拟机SSH免密互登
执行命令:ssh-keygen -t dsa
(注意 ssh-keygen中间没有空格)
在命令执行过程中敲击几遍回车,如果有要覆盖文件的要输入’y’或者’yes’进行覆盖,然后在/root/.ssh文件下生成两个文件id_dsa 和id_dsa.pub
执行命令:cat id_dsa.pub
查看生成的文件是否正确
三台虚拟机都执行以上操作,得到三个id_dsa.pub文件,将三个文件内容合并到一起。
然后在/root/.ssh/目录下新建一个authorized_keys文件,然后将所有的内容拷贝到该文件中
执行命令:ssh server2
实现免密互登。
exit
退出互登模式
3、JDK8下载安装
进入Oracle官网下载:
https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html
下载之后,通过安装虚拟机的VMvare tools工具,直接将压缩包拖到虚拟机中/home/hz/Downloads.(但经常出问题,我没有成功)
另一种方式:进入WinSCP官网下载软件WinSCP。
直接拖动文件到/home/hz/Downloads即可。
通过命令:cp /home/hz/downloads/jdk-8u271-linux-x64.tar.gz /usr/lib/jvm/jdk-8u271-linux-x64.tar.gz
(可以先试着直接解压到/usr/lib/jvm,如果不行再用此步骤)
将压缩包放到/usr/lib/jvm下,再进行解压
tar -xzvf jdk-8u271-linux-x64.tar.gz
(版本不同,名字不同)
解压成功后:
然后修改环境变量:
在/etc/profile文件中新增下面内容
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_271
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib/
export PATH=$JAVA_HOME/bin:$PATH
(如果报错可以试着将PATH=…,$PATH放在后面)
然后使其生效:source /etc/profile
再输入:java -version
(查看版本是否安装成功)
**注意:**三台虚拟机都要这样配置。
4、hadoop下载安装
进入hadoop官网Apache,选择二进制下载
通过上述jdk的方式将hadoop-3.2.0.tar.gz移动到/home/hz/downloads中
在/opt下目录新建一个名为hadoop的目录:mkdir /opt/hadoop
复制到该目录下:cp /home/hz/downloads/hadoop-3.2.0.tar.gz /opt/hadoop/Hadoop-3.2.0.tar.gz
然后进行解压:tar -xzvf hadoop-3.2.0.tar.gz
在/root/下新建几个目录:
mkdir /root/hadoop
mkdir /root/hadoop/tmp
mkdir /root/hadoop/var
mkdir /root/hadoop/dfs
mkdir /root/hadoop/dfs/name
mkdir /root/hadoop/dfs/data
查看配置文件:
cd /opt/hadoop/hadoop-3.2.0/etc/hadoop
修改core-site.xml文件,在中加入以下配置
vim core-site.xml
<property>
<name>hadoop.tmp.dir</name>