spark 添加依赖_将jar添加到Spark作业 - spark-submit

本文详细介绍了如何在Spark作业中添加外部依赖,包括通过`spark.driver.extraClassPath`和`spark.executor.extraClassPath`设置类路径,以及在不同模式下使用`--jars`和`SparkContext.addJar`的区别。还提到了文件分发方法,如HTTP服务器、HDFS、S3等,并强调了在集群模式下文件和JAR的分布策略。
摘要由CSDN通过智能技术生成

类路径。

ClassPath会受到影响,具体取决于您提供的内容。有几种方法可以在类路径上设置一些东西:spark.driver.extraClassPath或者它是--driver-class-path在运行驱动程序的节点上设置额外类路径的别名。

spark.executor.extraClassPath 在Worker节点上设置额外的类路径。

如果您希望某个JAR在Master和Worker上都有效,则必须在BOTH标志中单独指定它们。

分离特征:Linux:冒号 :例如: --conf "spark.driver.extraClassPath=/opt/prog/hadoop-aws-2.7.1.jar:/opt/prog/aws-java-sdk-1.10.50.jar"

Windows:分号 ;例如: --conf "spark.driver.extraClassPath=/opt/prog/hadoop-aws-2.7.1.jar;/opt/prog/aws-java-sdk-1.10.50.jar"

文件分发:

这取决于您正在运行的工作模式:客户端模式 - Spark启动Netty HTTP服务器,该服务器在启动时为每个工作节点分配文件。您可以看到启动Spark作业时:16/05/08 17:29:12 INFO HttpFileServer: HTTP File server directory is /tmp/spark-48911afa-db63-4ffc-a298-015e8b96bc55/httpd-84ae312b-5863-4f4c-a1ea-537bfca2bc2b16/05/08 17:29:12 INFO HttpServer: Starting HTTP Server16/05/08 17:29:12 INFO Utils: S

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值