运行bin/pyspark 时显示Unsupported major.minor version 52.0错误
问题一般是spark的java版本与作业编译的java版本不一致,建议将本地java版本改为与spark一致的版本,目前集群是1.7.0。
各JDK版本对应的版本数字编号如下所示:
J2SE 8 = 52,
J2SE 7 = 51,
J2SE 6.0 = 50,
J2SE 5.0 = 49,
JDK 1.4 = 48,
JDK 1.3 = 47,
JDK 1.2 = 46,
JD...
原创
2019-05-22 20:27:46 ·
642 阅读 ·
0 评论