伪分布式系列 - 第三篇 - spark-2.4.3环境搭建on hadoop3.2.0

目录

基础环境搭建

  • 基于前面的文章,hadoop已经搭建好,下面我们将进行spark on yarn搭建

  • 下载并配置scala,我们选择scala-2.12.8/这个版本即可,下载解压scala即可

    配置环境

    scala

    export SCALA_HOME=/opt/bigdata/scala/default

spark配置

spark下载

spark配置文件

  • spark-env.sh配置

    cp spark-env.sh.template spark-env.sh

    vim spark-env.sh 配置一下信息

    export JAVA_HOME=/usr/local/java_1.8.0_121
    #SCALA环境变量
    export SCALA_HOME=/opt/bigdata/scala/default
    #Hadoop路径
    export HADOOP_HOME=/opt/bigdata/hadoop/default
    #Hadoop配置目录
    export HADOOP_CONF_DIR= H A D O O P H O M E / e t c / h a d o o p e x p o r t S P A R K Y A R N U S E R E N V = HADOOP_HOME/etc/hadoop export SPARK_YARN_USER_ENV= HADOOPHOME/etc/hadoopexportSPARKYARNUSERENV={HADOOP_CONF_DIR}
    export SPARK_HOME=/opt/bigdata/spark/default
    export HIVE_HOME=/opt/bigdata/hive/default
    export HIVE_CONF_DIR= H I V E H O M E / c o n f e x p o r t P A T H = {HIVE_HOME}/conf export PATH= HIVEHOME/confexportPATH={JAVA_HOME}/bin: S C A L A H O M E / b i n : {SCALA_HOME}/bin: SCALAHOME/bin:{HADOOP_HOME}/bin: S P A R K H O M E / b i n : {SPARK_HOME}/bin: SPARKHOME/bin:{HIVE_HOME}/bin:$PATH

  • spark-defaults.conf配置

    cp spark-defaults.conf.template spark-defaults.conf
    vim spark-defaults.conf 配置如下信息

    spark job log收集,收集到hdfs上

    spark.eventLog.enabled true
    spark.eventLog.dir hdfs://ecs-6531-0002.novalocal:9000/tmp/spark/eventLogs
    spark.eventLog.compress true
    #默认序列化方式
    spark.serializer org.apache.spark.serializer.KryoSerializer

    部署模式yarn

    spark.master yarn

    默认driver核心数

    spark.driver.cores 1

    默认driver内存数

    spark.driver.memory 800m

    默认executer核心数

    spark.executor.cores 1

    默认executer内存数

    spark.executor.memory 1000m

    默认executer实例数

    spark.executor.instances 1

    hive仓库地址

    spark.sql.warehouse.dir hdfs://ecs-6531-0002.novalocal:9000/user/root/warehouse

  • 拷贝hive-site.xml到spark conf下,因为要连接hive

    cp $HIVE_HOME/conf/hive-site.xml $SPARK_HOME/conf/hive-site.xml

环境配置

  • vim /etc/profile

    spark 配置

    export SPARK_YARN_USER_ENV= H A D O O P C O N F D I R e x p o r t S P A R K H O M E = / o p t / b i g d a t a / s p a r k / d e f a u l t e x p o r t P A T H = {HADOOP_CONF_DIR} export SPARK_HOME=/opt/bigdata/spark/default export PATH= HADOOPCONFDIRexportSPARKHOME=/opt/bigdata/spark/defaultexportPATH={SCALA_HOME}/bin: S P A R K H O M E / b i n : {SPARK_HOME}/bin: SPARKHOME/bin:PATH

拷贝包

  • 拷贝spark shuffle on yarn到包到yarn的目录下

    cp /opt/bigdata/spark/spark-2.4.3-bin-hadoop2.7/yarn/spark-2.4.3-yarn-shuffle.jar /opt/bigdata/hadoop/hadoop-3.2.0/share/hadoop/yarn/

yarn配置

  • 配置yarn-site.xml文件

    需要把spark_shuffle加上

    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle,spark_shuffle</value>
    </property>
    
  • 重启yarn

spark启动测试

  • 直接输入spark-sql启动
    在这里插入图片描述

  • 测试查询hive
    在这里插入图片描述

  • 使用spark提交任务 直接spark-submit jar包即可

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值