hive on spark jar包缓存问题

允许Yarn在节点上缓存必要的spark依赖关系jar,这样每次应用程序运行时都不需要分发它。

  • 在Hive 2.2.0之前,将spark-assembly jar上传到hdfs文件(例如:hdfs:// xxxx:8020 / spark-assembly.jar)并在hive-site.xml中添加以下内容

    <property>

      <name>spark.yarn.jar</name>

      <value>hdfs://xxxx:8020/spark-assembly.jar</value>

    </property>

  • Hive 2.2.0及之后,将$ SPARK_HOME / jars中的所有jar上传到hdfs文件夹(例如:hdfs:/// xxxx:8020 / spark-jars)并在hive-site.xml中添加以下内容

    <property>

      <name>spark.yarn.jars</name>

      <value>hdfs://xxxx:8020/spark-jars/*</value>

    </property>

     

     

    上述配置完成后会出现Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)'
    FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create spark client.

     

    这样的问题,hive无法创建spark任务启动客户端,是因为缺少了spark的yarn-client的ip配置

     

    需要在hive-site.xml中增加一些配置


      <property>
        <name>spark.master</name>
        <value>spark://master:7077</value>
      </property>

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值