Hadoop平台搭建--09搭建Spark环境

  1. 上传Spark安装包(需要下载和Hadoop版本相匹配的安装包)到 /usr/local/中
    在这里插入图片描述
  2. 切换到/usr/local/下
    在这里插入图片描述
  3. 解压Spark压缩包 tar -zxvf spark-2.4.3-bin-hadoop2.7.tgz
    在这里插入图片描述在这里插入图片描述
  4. 修改Spark文件夹的名称 mv spark-2.4.3-bin-hadoop2.7 spark
    在这里插入图片描述
  5. 删除Spark压缩包 rm spark-2.4.3-bin-hadoop2.7.tgz
    在这里插入图片描述
  6. 配置环境变量 vi /etc/profile
    export SPARK_HOME=/usr/local/spark
    export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
    在这里插入图片描述
  7. 输入命令“source /etc/profile”,并执行,让环境变量生效
  8. 配置Spark
    切换到spark的conf路径下
    在这里插入图片描述
    在这里插入图片描述
  9. 配置spark-env.sh
    将spark-env.sh.template 重命名为 spark-env.sh
    mv spark-env.sh.template spark-env.sh
    在这里插入图片描述
    使用vi编辑器,打开spark-env.sh,在文件最后,添加如下内容:
    SPARK_MASTER_IP Spark中master的IP
    SPARK_MASTER_HOST Spark中master的主机名
    SPARK_LOCAL_DIRS Spark中暂存空间的使用目录。
    SPARK_MASTER_PORT Spark的port端口号
export JAVA_HOME=/usr/local/java
export SCALA_HOME=/usr/local/scala
export HADOOP_CONF=/usr/local/hadoop/etc/hadoop
SPARK_MASTER_IP=192.168.164.100
SPARK_MASTER_HOST=master
SPARK_MASTER_PORT=7077
SPARK_LOCAL_DIRS=/usr/local/spark/tmp
  1. 配置slaves
    将slaves.template 重命名为 slaves
    mv slaves.template slaves
    在这里插入图片描述
    使用vi编辑器,打开slaves,在文件最后,添加如下内容:
    在这里插入图片描述
  2. 配置spark-defaults.conf (查看历史记录,需要先执行start-history-server.sh
    将spark-defaults.conf.template 改为 spark-defaults.conf
    mvspark-defaults.conf.template spark-defaults.conf
    修改以下两项:
    在这里插入图片描述
spark.eventLog.enabled           true
spark.eventLog.dir               hdfs://master:9000/directory
  1. hadoop fs -mkdir /directory 在hdfs上创建directory 文件夹:
    在这里插入图片描述
    修改spark-env.sh,添加如下内容:
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=4000 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs://master:9000/directory"

在这里插入图片描述

  1. 配置log4j.properties(减少输出的日志信息,可不改)
    将log4j.properties.template 改为 log4j.properties
    mv log4j.properties.template log4j.properties
    在这里插入图片描述
    vi log4j.properties 把INFO改为WARN
    修改前:
    在这里插入图片描述
    修改后:
    在这里插入图片描述
  2. 将spark-env.sh 、slaves、log4j.properties 和 spark-defaults.conf 发布到slave1、slave2、slave3 服务器上
    scp slaves root@slave1:/usr/local/spark/conf
    在这里插入图片描述
    scp spark-env.sh root@slave1:/usr/local/spark/conf
    在这里插入图片描述
    scp log4j.properties root@slave1:/usr/local/spark/conf
    scp spark-defaults.conf root@slave1:/usr/local/spark/conf
    slave2和slave3步骤同上
  3. start-all.sh 启动服务
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  4. 通过浏览器查看Spark信息
    浏览器中,输入http://master:8080
    在这里插入图片描述
  5. spark-shell启动spark
    在这里插入图片描述
  6. 查看历史记录 master:4000(先执行start-history-server.sh,启动HistoryServer服务)

在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

TriumPhSK

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值