预先准备:
jdk1.8安装包、scala2.11.8安装包、hadoop2.7.6安装包、spark2.3.1安装包
1、安装JDK
解压jdk-8u181-linux-x64.tar.gz到/usr/local/java/文件夹下
修改配置文件vi /etc/profile
export JAVA_HOME=/usr/local/java/jdk1.8.0_181
export CLASSPATH=$:CLASSPATH:$JAVA_HOME/lib/
export PATH=$PATH:$JAVA_HOME/bin
修改成功后 执行 source /etc/profile使文件生效
验证是否成功
2、关闭防火墙
执行下面命令
systemctl stop firewalld && systemctl disable firewalld
setenforce 0
修改文件vim /etc/selinux/config
SELINUX=disabled
重启服务器 reboot
3、Scala安装
解压scala-2.11.8.tgz到/usr/local/scala/文件夹下
修改配置/etc/profile
# 在最后下添加
export SCALA_HOME=/usr/local/scala/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin
修改成功后 执行 source /etc/profile使文件生效
验证是否成功
4、修改机器名称
查看当前机器名称
hostname
改名执行vi /etc/hostname
spark1
重启
克隆这台机器,分别克隆为spark2、spark3、spark4.
5、修改/etc/hosts文件
192.168.xxx.xxx spark1
192.168.xxx.xxx spark2
192.168.xxx.xxx spark3
192.168.xxx.xxx spark4
可以使用ifconfig命令查看每台机器的ip
机器之间互ping一下,验证是否可以ping通
6、免密登录配置
生成公钥
ssh-keygen -t rsa
生成的公钥默认位于/root/.ssh目录
将公钥内容写入authorized_keys
cat id_rsa >> authorized_keys
每个虚拟机分别执行
ssh-copy-id -i sparkx
分别测试每台机器,除了第一次需要输入密码,之后不再需要输入密码便可直接登录
ssh spark2
7、Hadoop集群
解压hadoop-2.7.6.tar.gz到/usr/local/hadoop/文件夹下
修改/etc/profile<