特别坑的地方:
1. 不能使用公网ip, 就算你把1001/65533给0.0.0.0/0 全部开放端口都没有用, 只能使用内网ip和主机名关联, 用内网ip启动spark
在/etc/hosts文件:
127.0.0.1 localhost
你的内网ip 你的主机名
对应的spark-
在阿里云服务器上搭建Spark时,遇到必须使用内网IP和主机名的限制,不能通过公网IP进行配置。此外,不同Spark版本之间存在不兼容问题,导致无法从低版本的spark-shell连接到高版本的Spark服务。解决方法包括更新本地Spark版本或在服务器上使用相同版本,并确保在配置文件中正确设置内网IP和主机名。
特别坑的地方:
1. 不能使用公网ip, 就算你把1001/65533给0.0.0.0/0 全部开放端口都没有用, 只能使用内网ip和主机名关联, 用内网ip启动spark
在/etc/hosts文件:
127.0.0.1 localhost
你的内网ip 你的主机名
对应的spark-
202
1451
1690

被折叠的 条评论
为什么被折叠?