基于hadoop搭建Spark环境

基于hadoop搭建Spark环境

需要准备的东西

1. 准备一个配置好的hadoop,master虚拟机
2. 下载下面的三个文件
3. jdk-8u181-linux-x64.tar.gz
4. scala-2.11.1.tgz
5. spark-3.1.2-bin-hadoop3.2.tgz

步骤:

导入虚拟机后打开这个
在这里插入图片描述

查看网卡文件

ifconfig  -a 

修改网络配置
重启网络
重启虚拟机

  1. 上传3个压缩包到虚拟机上,笔者全部放在/opt文件夹下
    解压到当前文件夹

在这里插入图片描述

  1. 修改/etc/profile文件

命令:

vi  /etc/profile

在这里插入图片描述

保存:

1,Esc
2, :wq

重启或使用下面命令使得修改生效

source /etc/profile

进入spark-3.1.2-bin-hadoop3.2/conf 修改Spark配置文件

  • 复制模板文件
cd /opt/spark-3.1.2-bin-hadoop3.2/conf
cp  spark-env.sh.template    spark-env.sh
cp  log4j.properties.template    log4j.properties
cp  slaves.template   slaves
/*如果没有slaves.template 用cp workers.template   workers*/


  • 修改spark-env设置主节点,和从节点的配置
    在这里插入图片描述
  • 修改slaves设置从节点地址
    添加节点主机名称,默认为localhost

注意:这里配置的spark环境只有一个基于Hadoop环境的虚拟机,配置集群的可以配置好之后分发到其他节点

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值