Centos7下安装(Hadoop2.7.6+Spark2.3.1)

本文档详细介绍了在Centos7环境下,如何一步步安装Hadoop2.7.6和Spark2.3.1,包括JDK的安装、防火墙关闭、Scala配置、主机名修改、SSH免密登录、Hadoop和Spark集群的搭建以及相关服务的启动和验证。
摘要由CSDN通过智能技术生成

预先准备:
jdk1.8安装包、scala2.11.8安装包、hadoop2.7.6安装包、spark2.3.1安装包

1、安装JDK

解压jdk-8u181-linux-x64.tar.gz到/usr/local/java/文件夹下
修改配置文件vi /etc/profile

export JAVA_HOME=/usr/local/java/jdk1.8.0_181
export CLASSPATH=$:CLASSPATH:$JAVA_HOME/lib/
export PATH=$PATH:$JAVA_HOME/bin

在这里插入图片描述
修改成功后 执行 source /etc/profile使文件生效
验证是否成功
在这里插入图片描述

2、关闭防火墙

执行下面命令

systemctl stop firewalld && systemctl disable firewalld
setenforce 0

修改文件vim /etc/selinux/config

SELINUX=disabled

重启服务器 reboot

3、Scala安装

解压scala-2.11.8.tgz到/usr/local/scala/文件夹下
修改配置/etc/profile

# 在最后下添加
export SCALA_HOME=/usr/local/scala/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin

修改成功后 执行 source /etc/profile使文件生效
验证是否成功
在这里插入图片描述

4、修改机器名称

查看当前机器名称
hostname
改名执行vi /etc/hostname

spark1

重启
克隆这台机器,分别克隆为spark2、spark3、spark4.

5、修改/etc/hosts文件

192.168.xxx.xxx	spark1
192.168.xxx.xxx	spark2
192.168.xxx.xxx	spark3
192.168.xxx.xxx	spark4

可以使用ifconfig命令查看每台机器的ip
机器之间互ping一下,验证是否可以ping通

6、免密登录配置

生成公钥

ssh-keygen -t rsa

生成的公钥默认位于/root/.ssh目录
将公钥内容写入authorized_keys

cat id_rsa >> authorized_keys

每个虚拟机分别执行

ssh-copy-id -i sparkx

分别测试每台机器,除了第一次需要输入密码,之后不再需要输入密码便可直接登录

ssh spark2

7、Hadoop集群

解压hadoop-2.7.6.tar.gz到/usr/local/hadoop/文件夹下
修改/etc/profile<

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值