前提:本地java、hadoop已经安装好,但本地cmd启动spark-shell报出下面错误,我的配置是hadoop2.7、spark-2.3.1。
提示:没有配置好hadoop、spark(两者版本有联系,有对应)请先在本地安装好hadoop、spark。
出错原因:本地java版本过高.
处理方法:降低java版本到java8。如果不想影响你之前的java环境配置,你可以在本地多安一个java,想用哪个就到环境变量里面修改路径即可。
java8百度云资源:
链接: https://pan.baidu.com/s/1U4p8U8_DgDkOmK8xNiMlWw 提取码: q2pe
报错信息:
Exception in thread "'main" jav a . lang . Except ionInIn it ialize rError
at org . apache . hadoop . ut il. Str ingUt ils. <c linit ><Str ingUt ils. Jjava :80
at org apac he . hadoop secur it y- Secur it yUt il . getAut hent ic at ionMe t hod(Securit yUt il. java:611)
at org . apac he . hadoop . secur ity. UserGrowpI nf ormat ion . init ialize (UserGroupInf ornat ion . java :273)
at org apac he . hadoop secur it y . Use rGroupInf ornat ion ensure Init ialized (Use rGroupInf ormat ion .java:261)
at org