之前刚刚用spark,出现这个问题也是很头痛,一直以为是内存的问题,纠结了一整天也没解决。
后来才发现是因为导入的jar包版本不一致。
在用spark之前在eclipse上导入了其他的包,跟spark的包里有冲突,所以一直报错啊啊啊,后来把原来的包都remove掉了。
原来怕eclipse导入太多的包会承担不了,在用spark的时候提示需要哪个包,我才导进去,结果spark需要的包太多了,导完一个还有一个,后来导入一半的包了,还一直报错,耐心告罄!!!
一口气把所有包都导进去了,终于搞定了!
果然简单粗暴的方式是最好用的,泪!
给用spark的小伙伴们提个醒!