Spark Streaming 报错:NoSuchMethodError: scala.Predef$.ArrowAssoc

12 篇文章 0 订阅

   最近在学习Spark ,做了一些练习,发现了一些问题。

   昨天在做Spark Streaming 的练习,编译打包项目时没有任何错误,但是运行时报错:

15/05/26 21:33:24 INFO cluster.SparkDeploySchedulerBackend: SchedulerBackend is ready for scheduling beginning after reached minRegisteredResourcesRatio: 0.0
Exception in thread "main" java.lang.NoSuchMethodError: scala.Predef$.ArrowAssoc(Ljava/lang/Object;)Ljava/lang/Object;
	at stream.tan14.cn.streamTest$.main(streamTest.scala:25)
	at stream.tan14.cn.streamTest.main(streamTest.scala)
	at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
	at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
	at java.lang.reflect.Method.invoke(Method.java:606)
	at org.apache.spark.deploy.SparkSubmit$.launch(SparkSubmit.scala:328)
	at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:75)
	at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

 而我代码中的25行为:

val topicpMap = Map("netflow" -> 2)

  上面的代码居然会有错!!太不可接受了,这让我一时不知所措了。

   通过Google 大神找到了一些线索,可以参考:http://stackoverflow.com/questions/25089852/what-is-the-reason-for-java-lang-nosuchmethoderror-scala-predef-arrowassoc-upo

    在上面的资料中的得知应该时Scala 不同版本在造成的,然后查找资料,得知Spark 1.2.1使用的Scala版本是2.10.4,此时我的SBT配置如下:

scalaVersion := "2.11.2"

libraryDependencies ++= Seq(
   "org.apache.spark" % "spark-core_2.10" % "1.2.1",
   "org.apache.spark" % "spark-streaming_2.10" % "1.2.1",
   "org.apache.spark" % "spark-streaming-kafka_2.10" % "1.2.1"
)

     然后我将SBT的内容改成如下:

scalaVersion := "2.10.4"

libraryDependencies ++= Seq(
   "org.apache.spark" % "spark-core_2.10" % "1.2.1",
   "org.apache.spark" % "spark-streaming_2.10" % "1.2.1",
   "org.apache.spark" % "spark-streaming-kafka_2.10" % "1.2.1",
   "org.scala-lang" % "scala-library" % "2.10.4",
   "org.scala-lang" % "scala-reflect" % "2.10.4",
   "org.scala-lang" % "scala-compiler" % "2.10.4",
   "org.scala-lang" % "scalap" % "2.10.4"
)
    接着,在File ->Project Structure ->Artifacts ->Output Layout中将Scala 对应的包的版本2.10.4 或者 直接将原来Artifacts 中对应的项目删掉,重新从Artifacts ->Jar ->From modules with dependencies 添加Build  ,运行。问题解决!

    最近在学习Spark 并做一些练习的时候,总是存在:编译,Build通过,但是运行的时候就报错,而且查资料发现,基本都跟Scala 的版本有关。所以,再此备注,希望以后尽量将项目的Scala 版本跟Spark 中使用的Scala 版本保持一致,避免不必要的错误。


  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值