spark集群版运行jar包

默认以及按照好了Hadoop的环境和spark环境以及idea环境

  • 打包到服务器运行
    1.先右键运行一下WordCount.scala,运行成功后出现红色的info信息,等待几秒后即可关闭。不进行此步骤的话在服务器运行会出错。

 

2.点击右边的maven面板,双击lifecycle下的package即可打包

 

3.打包完成后的jar包在target目录下,将其上传到服务器,

       然后在spark的bin目录下运行以下代码

./spark-submit  --class spark.core.wc   /hk1111/jar/spark_03-core-1.0-SNAPSHOT.jar

 

./spark-submit   这个表示安装spark的目录中的spark-submit

--class 表示主类入口,就是上图中的主类是spark.core.wc

/hk1111/jar/spark_03-core-1.0-SNAPSHOT.jar   表示本地jar包路径

 

最后输出信息

       这是上面代码中编写的输出路径

 

然后查看结果

 

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 可以使用spark-submit命令来运行jar包,语法如下: ``` spark-submit --class <main-class> --master <master-url> <application-jar> <arguments> ``` 其中,`<main-class>`是应用程序的入口类,`<master-url>`是Spark集群的URL,`<application-jar>`是应用程序的jar包路径,`<arguments>`是传递给应用程序的参数。 例如: ``` spark-submit --class com.example.MyApp --master spark://localhost:7077 myapp.jar arg1 arg2 arg3 ``` 在这个例子中,`com.example.MyApp`是应用程序的入口类,`spark://localhost:7077`是Spark集群的URL,`myapp.jar`是应用程序的jar包路径,`arg1 arg2 arg3`是传递给应用程序的参数。 ### 回答2: Spark-submit是一个用于将应用程序提交到Spark集群的命令行工具,可以提交Scala、Java和Python等语言编写的应用程序。运行jar包spark-submit的一种方式,jar包是Java语言下的一种可执行模块,包含了应用程序的依赖以及编译后的字节码。 一般来说,使用spark-submit运行jar包,需要以下步骤: 1. 编写Spark应用程序,并编译成可执行jar包。 2. 配置Spark集群的参数。可以通过在提交jar包时通过spark-submit的参数来指定,如:--master,--deploy-mode,--executor-memory等。 3. 编写启动脚本。在运行spark-submit之前,需要编写启动脚本,其中包含了如何启动Spark集群的命令,以及如何提交应用程序的命令。 4. 运行spark-submit命令。在启动脚本中,使用spark-submit命令来提交应用程序,语法如下: ``` $SPARK_HOME/bin/spark-submit --class [class] [options] [jar file] [args] ``` 其中: --class:指定主类名称。 [options]:指定一些参数,例如,--master,--deploy-mode,--executor-memory等。 [jar file]:指定jar包的路径。 [args]:指定应用程序运行时的参数,由应用程序自行解析和使用。 例如: ``` $SPARK_HOME/bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-cluster --executor-memory 1g --num-executors 3 $SPARK_HOME/examples/jars/spark-examples_2.11-2.3.1.jar 10 ``` 这个命令会提交SparkPi应用程序到YARN集群上,并使用3个executor和1G内存执行SparkPi,参数10会传给应用程序。 总之,运行jar包spark-submit的一种常用方式,需要事先编译好可执行jar包,并通过spark-submit命令提交到Spark集群上。在提交时需要配置一些参数,例如主类、集群模式、executor数量和内存等。 ### 回答3: Spark是一个用于大数据处理的开源分布式计算框架,它提供了很多工具来帮助开发者进行数据处理和分析。spark-submit是其中一个很重要的工具,可以用来运行和提交Spark应用程序,其中包括打包好的jar包,这个工具可以保证我们的应用程序可以在分布式集群运行spark-submit的使用非常简单,只需要在终端中输入spark-submit命令,紧接着就是一大堆可选参数和必要参数了。其中最基本的命令格式如下: spark-submit [参数] [应用程序jar包路径] [参数值] 下面是一些spark-submit参数的详细解释: 1. --master:指定运行模式,可以是local、standalone、mesos、yarn等,在本地模式下使用local选项。 2. --deploy-mode:指定部署模式,分为client和cluster模式,默认是client模式,可以在yarn模式下使用cluster选项。 3. --class:指定应用程序的入口类。 4. --conf:指定配置文件,如spark.executor.memory、spark.driver.memory等。 5. --executor-memory:指定每个Executor进程的内存大小。 6. --num-executors:指定启动的Executor进程数。 7. --executor-cores:指定每个Executor进程所占用的CPU核数。 8. --name:指定应用程序的名称。 当我们使用spark-submit提交应用程序时,需要指定应用程序的jar包路径,一般情况下我们可以在Eclipse或者IntelliJ IDEA等IDE中将应用程序打成一个jar包,然后将其上传到服务器中。使用spark-submit启动应用程序时,应用程序的jar包路径可以使用相对路径或者绝对路径。 总之,spark-submit是一个非常强大的工具,可以帮助开发者轻松地提交、运行Spark应用程序。开发者可以根据自己的需求灵活选择参数和修改配置信息,以获取更好的运行效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值