Spark jars依赖问题

本文介绍了Spark中解决jar依赖的三种方法:通过--packages或--jars参数、使用fat jar插件打包以及针对集成MySQL时的特殊处理。在集成MySQL时,需要将MySQL驱动添加到HADOOP_CLASSPATH,并通过spark.executor.extraClassPath和spark.driver.extraClassPath配置确保依赖可用。此外,可以在spark-defaults.conf中设置相关参数以简化操作。
摘要由CSDN通过智能技术生成

  • Spark jars依赖问题

1、可以使用–packages或者–jars解决依赖问题

[root@CentOS ~]# spark-submit  
/  --master spark://CentOS:7077 --deploy-mode client 
/  --class com.baizhi.outputs.SparkWordCountApplication 
/  --name RedisSinkDemo --total-executor-cores 6 
/  --packages redis.clients:jedis:2.9.2  
/  /root/original-spark-rdd-1.0-SNAPSHOT.jar

2、可以使用fat jar插件将需要的依赖打包

[root@CentOS ~]# spark-submit  
/  --master spark://CentOS:7077 
/  --deploy-mode client 
/  --class com.baizhi.outputs.SparkWordCountApplication 
/  --name RedisSinkDemo --total-executor-cores 6 
/  /root/spark-rdd-1.0-SNAPSHOT.jar

3、注意当集成MySQ

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值