File "/home/hao/Pictures/spark-2.4.3-bin-hadoop2.7/examples/src/main/python/streaming/stateful_network_wordcount.py", line 45, in <module> ssc.checkpoint("checkpoint")
py4j.protocol.Py4JJavaError: An error occurred while calling o21.checkpoint. : java.net.ConnectException: Call From node1/192.168.223.5 to node1:9000 failed on connection exception: java.net.ConnectException:
在使用本地模式跑下面这个任务的的时候报错
./bin/spark-submit --master local[2] examples/src/main/python/streaming/stateful_network_wordcount.py node1 9999
一开始我认为本地模式下不需要使用spark集群,所以我就懒得打开了,然后出现这个问题的时候,我也单纯的认为是我的py4j哪里发生了错误,但是找了半天也没有发现错误的原因,后来想着把spark集群运行起来,再试一下,结果还真的是因为我的spark集群没有开启,导致的错误