Spark on Yarn 搭建及填坑过程

本文详细介绍了如何在个人电脑上搭建Spark on Yarn的环境,包括Hadoop和Spark的配置,如内存设置、YARN参数调整。同时,文章涵盖了Spark Shell验证、WordCount程序编写、提交运行以及遇到问题的解决方法,提供了完整的Maven工程配置示例。
摘要由CSDN通过智能技术生成
  1. 准备
    1. hadoop-2.7.5
    2. spark-2.0.0
    3. scala-2.11.8.tar(Linux环境spark运行所需)及scala-2.11.8.msi(win开发环境所需)这两个要一致
  2. 搭建(由于是在个人电脑上作为练习,因此涉及内存大小的地方要根据电脑内存合理设置)
    1. hadoop搭建(略) 这块按照其他搭建过程能运行起来就行,下边几个参数需要添加到yarn-site.xml中

      <property>  
          <name>yarn.nodemanager.resource.memory-mb</name>  
          <value>2048</value>  
      </property>

      <property>  
          <name>yarn.scheduler.minimum-allocation-mb</name>  
          <value>512</value>  
      </property>

      <property>
          <name>yarn.scheduler.maximum-allocation-mb</name>
          <value>2048</value>
      </property>

      <property>
          <name>yarn.nodemanager.pmem-check-enabled</name>
          <value>false</value>
      </property>

      <property>
          <name>yarn.nodemanager.vmem-check-enabled</name>
          <value>false</value>
      </property>

    2. spark搭建

      1. 解压spark的压缩包

      2. 将配置好的yarn-site.xml和core-site.xml从$HADOOP_HOME/etc/hadoop/拷贝一份到$SPARK_HOME/conf下

      3. 配置spark_env.sh,将如下配置添加到末尾

        1. export JAVA_HOME=/usr/local/jdk1.8
          export SCALA_HOME=/home/hadoop/scala-2.11.8
          export HADOOP_HOME=/home/hadoop/hadoop-2.7.5
          export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.7.5/etc/hadoop
          export SPARK_WORKER_MEMORY=2048m 

      4. 配置spark-defaults.conf,将如下配置添加到末尾

        1. spark.yarn.jars=hdfs://hadoop02:9000/sparkjars/* //这里的hadoop02:9000 代表集群的namenode所在节点,配置成

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值