大数据学习之Spark——02Spark集群安装

本文详细介绍了在大数据环境中如何安装和配置Spark集群,包括安装JDK、Spark集群的搭建、启动、日志服务器配置、Master高可用设置以及Spark与Hive的整合。通过这些步骤,确保了Spark在分布式环境中的稳定运行。
摘要由CSDN通过智能技术生成

一. 安装JDK

由于之前的集群安装的是jdk1.7的版本, 所以这里操作相对会麻烦一点

  1. 安装jdk1.8版本
    在这里插入图片描述
    注意:要修改族和组

  2. 修改配置文件

    因为之前安装过jdk1.7,如果还是把$PATH,写在前面,不会生效

    export JAVA_HOME=/usr/java/jdk1.8.0_181
    export PATH=$JAVA_HOME/bin:$PATH
    
  3. 分发给其他虚拟机

  4. 之前安装jdk时在” /usr/bin”目录下有一个java的连接:
    在这里插入图片描述

  5. 进入他指向的连接地址:
    在这里插入图片描述

  6. 执行:

    ln -sf /usr/java/jdk1.8.0_181/bin/java  /usr/bin/java
    
  7. 修改后进入”/usr/bin”查看:
    在这里插入图片描述

  8. 修改这一步的原因是:
    spark集群会默认从这个路径下查询jdk的版本

  9. 修改hadoop的配置文件

    /opt/hjf/hadoop/etc/hadoop/hadoop-env.sh 
    

    在这里插入图片描述
    修改为现在的版本号:

    # export JAVA_HOME=/usr/java/jdk1.7.0_67
    export JAVA_HOME=/usr/java/jdk1.8.0_181
    

    在这里插入图片描述

至此, jdk版本更改完成, 接下来正式安装spark

一. Spark安装

node01\node02\node03三台安装spark集群
node04只用于任务提交

1. 将spark解压大指定路径下:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值