spark 自定义外部配置参数的三种方式

前言
1、2 方式只能修改spark内置参数,外部自定义参数不支持此方式
如果传递,将提示

Warning: Ignoring non-spark config property: count.end.time=1564122000000

3方式可以用来传递自定义参数,通过args[]去获取

1、通过脚本 --conf 方式来提交
多个配置参会传递多个 --config

./bin/spark-submit  --class  com.xx.TestApp
  --master yarn 
  --deploy-mode cluster
   --driver-memory 1g 
   --num-executors 2 
   --executor-memory 512M 
   --executor-cores 2 
   //配置信息
   --conf spark.mongodb.input.uri=mongodb://192.168.1.2:27017/onemap-statis
    --conf spark.mongodb.output.collection=test_collection
     test-0.0.1-SNAPSHOT.jar

2、通过配置文件的方式–properties-file,如果不配置默认读取当前提交节点的 conf/spark-defaults.conf

./bin/spark-submit  
--class  com.xx.TestAppp 
 --master yarn 
 --deploy-mode cluster
  --driver-memory 1g 
  --num-executors 2 
  --executor-memory 512M
   --executor-cores 2 
      //配置信息
   --properties-file  extend.conf 
   test-0.0.1-SNAPSHOT.jar

3、通过main函数传递
arg0 arg1 arg3可以传递自定义参数,主函数里面获取

./bin/spark-submit 
 --class  com.xx.TestAppp
   --master yarn 
   --deploy-mode cluster
    --driver-memory 1g 
    --num-executors 2
     --executor-memory 512M
      --executor-cores 2 
       test-0.0.1-SNAPSHOT.jar arg0 arg1 arg3    //配置信息
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark on Kubernetes有三种不同的方式可以使用:spark-submit、Spark on Kubernetes Operator和Spark Operator for Kubernetes。下面是对这三种方式的对比: 1. spark-submit:这是最普遍的使用Spark on Kubernetes的方式。它通过命令行工具spark-submit来提交Spark应用程序到Kubernetes集群上运行。使用spark-submit,用户可以指定Spark应用程序的依赖、资源需求和应用程序脚本等信息。这种方式相对简单,适合快速测试和开发。 2. Spark on Kubernetes Operator:这是Kubernetes项目中一种常见的资源抽象方式。它基于Kubernetes的Custom Resource Definitions(CRD)来定义SparkApplication资源类型,使得Spark应用程序可以像常规的Kubernetes Pods一样被管理。Spark on Kubernetes Operator提供了更多的灵活性和可扩展性,可以通过定义自定义资源来描述和管理复杂的Spark应用程序。 3. Spark Operator for Kubernetes:这是由Google开发的一种专门为Kubernetes设计的Spark操作符。与Spark on Kubernetes Operator不同,Spark Operator for Kubernetes提供了更高级别的抽象,可以通过定义自定义资源和控制器来描述和管理Spark应用程序。此外,Spark Operator for Kubernetes还提供了其他功能,如动态资源分配、高可用性和故障转移等。 总之,这三种方式都可以在Kubernetes上运行Spark应用程序,但它们在抽象程度和功能上有所不同。spark-submit方式简单易用,而Spark on Kubernetes Operator和Spark Operator for Kubernetes提供了更多的灵活性和高级功能。选择哪种方式取决于具体的使用场景和需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值