eclipse提交运行spark应用


    Spark应用提交的一般方式就是,将程序打包成jar包后,再使用spark-submit 进行提交运行。

    那么有没有可能 直接用eclipse提交运行spark应用呢?

    答案当然是可以的!

    本人环境是这样的:有一个spark集群, 一台独立的开发机器运行eclipse

    (1) 开发语言scala

    (2) 构建工具sbt

    开发过程中需要注意一下两点:

    (1) 代码编写完成后,使用sbt进行打包。

    (2) 在代码中添加以下代码:

     (注意:由于我写的是spark streaming程序所以,用的是StreamingContext,该对象中有SparkContext属性)

val ssc = new StreamingContext(sparkConf, Seconds(1))
ssc.sparkContext.addJar("F:\\spark-scala-wordcount-network-assembly-1.0.jar")



    该代码的作用是什么呢,其实想象下不难理解,我们要在eclipse下运行spark应用,即driver也是在eclipse下运行,那么具体的分析代码如何传给spark的worker节点呢,所以我们需要将应用代码jar包,通过sparkContext进行上传,从而worker端才能执行。 否则会包NoClassFound异常的。

      

       最后补充一下:

         在使用eclipse直接运行spark应用的时候,可能会出现一下异常

  Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources

         当出现以上警告信息的时候,那么原因可能是:

        (1) SPark资源可能真的不够了,注意添加资源

        (2) spark集群中的节点上 没有配置eclipse所在机器域名的IP信息。 需要在各个节点的/etc/hosts配置域名到IP的映射。

转载于:https://my.oschina.net/yjwxh/blog/602623

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值