Spark Streaming之代码打包运行方式

方式一:--packages,需要连接外网

./spark-submit \
--master local[2] \
--name StreamingKafkaYARNApp \
--class com.ruozedata.bigdata.spark.streaming4.StreamingKafkaYARNApp \
--packages org.apache.spark:spark-streaming-kafka-0-10_2.11:2.4.4 \
/home/hadoop/lib/spark-flink-1.0.jar \
master:9092,master:9093,master:9094 my_offset my_group

方式二:--jars,提前下载好依赖的jar包(推荐)

./spark-submit \
--master local[2] \
--name StreamingKafkaYARNApp \
--class com.ruozedata.bigdata.spark.streaming4.StreamingKafkaYARNApp \
--jars /home/hadoop/lib/spark-streaming-kafka-0-10_2.11-2.4.4.jar,/home/hadoop/lib/kafka-clients-2.0.0.jar \
/home/hadoop/lib/spark-flink-1.0.jar \
master:9092,master:9093,master:9094 my_offset my_group

方式三:打胖包

瘦包:仅仅只包含了你自己开发的代码,不包括其他的依赖。

  1. 包小。
  2. 需要的依赖的包自己来挑选。

胖包:不仅仅会把你自己开发的代码打包,还会把你指定的依赖的包一起打进去。

  1. 包大。
  2. 所有需要的东西(Hadoop/Spark除外)都在里面了。

在pom.xml中加入assembly插件:

<plugin>
<!-- 加入assembly组件,实现打胖包,直接Package -->
<artifactId>maven-assembly-plugin</artifactId>
<executions>
	<execution>
		<id>make-assembly</id>
		<phase>package</phase>
		<goals>
			<goal>assembly</goal>
		</goals>
	</execution>
</executions>
<configuration>
	<archive>
		<manifest>
			<mainClass>${groupId}</mainClass>
		</manifest>
	</archive>
	<descriptorRefs>
		<descriptorRef>jar-with-dependencies</descriptorRef>
	</descriptorRefs>
</configuration>
</plugin>

提交

./spark-submit \
--master local[2] \
--name StreamingKafkaYARNApp \
--class com.ruozedata.bigdata.spark.streaming4.StreamingKafkaYARNApp \
/home/hadoop/lib/spark-flink-1.0-jar-with-dependencies.jar \
master:9092,master:9093,master:9094 my_offset my_group
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值