- 博客(1)
- 收藏
- 关注
原创 Ubuntu虚拟机中配置hadoop,spark分布式集群,spark集群无法正常启动
排除配置文件问题外,检查hadoop安装目录下/share/hadoop/common/lib/下的guava.jar包与spark安装目录下的/jars的guava.jar包版本,将两者中高版本覆盖掉低版本,即可正常启动spark节点。Ubuntu版本 18,hadoop 3.1.2 spark 3.1.2。
2024-04-13 14:39:02 184
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人