Centos7+JDK1.8+Scala2.11+Hadoop2.8+Spark2.2+ZooKeeper3.4 集群搭建

本文详细记录了在Centos7环境下,如何搭建JDK1.8、Scala2.11、Hadoop2.8、Spark2.2和ZooKeeper3.4的集群。包括集群规划、安装准备、JDK和Scala的安装、虚拟机克隆、防火墙关闭、免密登录、时间同步等关键步骤,最后验证各组件安装及运行情况。
摘要由CSDN通过智能技术生成

Centos7+JDK1.8+Scala2.11+Hadoop2.8+Spark2.2+ZooKeeper3.4 集群搭建

第一次写博客,记录下自己的Spark集群搭建过程,参考资料一并奉上
https://blog.csdn.net/weixin_42292787/article/details/89309645
https://blog.csdn.net/qazwsxpcm/article/details/78937820

1、集群规划

机器名称 spark1 spark2 spark3 spark4
IP 192.168.80.151 192.168.80.152 192.168.80.153 192.168.80.154
节点类型 Hadoop的namenode节点,Spark的master节点 Hadoop的datanode节点,Spark的slave节点 Hadoop的datanode节点,Spark的slave节点 Hadoop的datanode节点,Spark的slave节点
JAVA_HOME /usr/local/java/jdk1.8.0_221 /usr/local/java/jdk1.8.0_221 /usr/local/java/jdk1.8.0_221 /usr/local/java/jdk1.8.0_221
SCALA_HOME /usr/local/scala/scala-2.11.12 /usr/local/scala/scala-2.11.12 /usr/local/scala/scala-2.11.12 /usr/local/scala/scala-2.11.12
HADOOP_HOME /usr/local/hadoop/hadoop-2.8.2 /usr/local/hadoop/hadoop-2.8.2 /usr/local/hadoop/hadoop-2.8.2 /usr/local/hadoop/hadoop-2.8.2
SPARK_HOME /usr/local/spark/spark-2.2.0-bin-hadoop2.7 /usr/local/spark/spark-2.2.0-bin-hadoop2.7 /usr/local/spark/spark-2.2.0-bin-hadoop2.7 /usr/local/spark/spark-2.2.0-bin-hadoop2.7
ZK_HOME /usr/local/zookeeper/zookeeper3.4 /usr/local/zookeeper/zookeeper3.4 /usr/local/zookeeper/zookeeper3.4 /usr/local/zookeeper/zookeeper3.4

2、安装准备

2.1 安装包

在这里插入图片描述
链接:https://pan.baidu.com/s/1z-qGJfZRA1VPVnmst9I77w
提取码:rjzp

2.2 安装一台新的虚拟机

其余的步骤不再赘述,直接默认配置,下一步即可,这里重点说一下网络配置

2.2.1 输入命令进行网络配置
vim /etc/sysconfig/network-scripts/ifcfg-enp0s3

在这里插入图片描述
首先将BOOTPROTO设置为static,ONBOOT设置为yes
ip地址、子网掩码以及网关的设置参考你本地的物理机
打开cmd,输入ipconfig得到如下信息:
这里还需要注意ip地址的范围:
在这里插入图片描述
dns设置为114.114.114.114即可

2.2.2 重启网络


                
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值