SparkSubmit提交任务到yarn及报错解决方案

在这里插入图片描述

一、提交任务代码

@Override
    public Response submitApplication(String[] args) throws IOException, InterruptedException {
        log.info("spark任务传入参数args:{}", args);
        args[0] = args[0].replace("}}", "} }").replace("{{", "{ {");
        SparkLauncher  handle = new SparkLauncher()
                .setAppResource(sparkJars)	//jar位置,可以是本地可以是hdfs上地址
                .setMainClass(sparkMainClass)	//运行主函数,项目相对路径,要带包名
                .setMaster(sparkMaster)	//举例:yarn
                .setAppName("Submit Application To Yarn")
                .setSparkHome(sparkHome)	//linux中地址,举例:/usr/hdp/3.1.0.0-78/spark2
                .setDeployMode(sparkDeployMode)	//cluster
                .setVerbose(true)
                .setConf("spark.driver.memory", sparkDriverMemory)	//1g
                .setConf("spark.executor.memory", sparkExecutorMemory)	//1g
                .setConf("spark.executor.cores", sparkExecutorCores)	//1
                .setVerbose(true)
                .addAppArgs(args[0]);
        handle.startApplication(new SparkAppHandle.Listener() {
            //这里监听任务状态,当任务结束时(不管是什么原因结束),isFinal()方法会返回true,否则返回false
            @Override
            public void stateChanged(SparkAppHandle sparkAppHandle) {
                if (sparkAppHandle.getState().isFinal()) {
                    System.out.println("============stateChanged-getAppId:" + sparkAppHandle.getAppId());
                }
                System.out.println("getState:" + sparkAppHandle.getState().toString());
            }
            @Override
            public void infoChanged(SparkAppHandle sparkAppHandle) {
                System.out.println("============infoChanged-getAppId:" + sparkAppHandle.getAppId());              
                }
            }
        });
        System.out.println("**********************The task is finished!");

        return Response.success();
    }

说明:
1)windows下无法运行,必须在linux中进行提交
2)这段代码必须在yarn所在linux服务器上运行,不然标识符.setMaster(“yarn”),不认识
3)这种方式如果在运行中想获得appId,只能在infoChanged中获得或者在stateChanged方法中代表当任务结束后获得,当然推荐使用前者

二、Linux提交可能出现的问题及解决方案

情况1:JSON解析异常

在这里插入图片描述

出错原因:spark命令提交参数json,到另一个jar发现{{或者}}消失了,导致解析异常

解决方案:https://blog.csdn.net/u010814849/article/details/78752074 双括号间+空格

情况2:java.lang.InstantiationException spark.sql.driver

出错原因:spark操作mysql数据库缺少驱动

解决方案:
Properties对象设置props.put(“driver”, “com.mysql.jdbc.Driver”);

情况3 中kafka:java.lang.NoClassDefFoundError: org/apache/kafka/clients/producer/Callback

出错原因:运行spark jar(也就是普通maven jar或者java jar,而不是springboot jar)期缺少jar包,问题出在maven程序打包没把依赖打进去

解决方案:添加打包插件指定打入依赖jar

<plugin>
    <artifactId>maven-assembly-plugin</artifactId>
    <configuration>
        <descriptorRefs>
            <descriptorRef>jar-with-dependencies</descriptorRef>
        </descriptorRefs>
    </configuration>
    <executions>
        <execution>
            <id>make-assembly</id>
            <phase>package</phase>
            <goals>
                <goal>single</goal>
            </goals>
        </execution>
    </executions>
</plugin>

情况4 idea启动报错:Connection to node -1 could not be established. Broker may not be available

出错原因:指定bootstrap-servers前面多了空格,导致层级目录出错,也就是说application.yml文件由于复杂导致多添加 “空格”,造成缩进格式混乱,这点尤其注意

解决方案:
在这里插入图片描述

情况5中kafka: Caused by: java.nio.channels.UnresolvedAddressException master:8080

出错原因:ip映射没修改对,导致不认识master,因为我们采用ambari安装的kafka,初始化为:localhost:6667,所以必须把“localhost” -》“IP”

解决方案:如果是ambari安装的kafka修改cinfig下面的,如果是自己linux搭建的,需改动kafka下的cinfig下的server.properties,把PLAINTEXT://localhost:6667 -》 改为PLAINTEXT://192.168.20.91:6667
在这里插入图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 6
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

刘大猫.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值