最近一直在钻研IDE直连spark的问题。
用vmware建了3个虚拟机,来跑spark集群。安装的python版本是anaconda2的python2
在使用pycharm编写pyspark程序连接虚拟机的时候,
出现了这样的问题:
17/02/23 16:58:52 WARN TaskSetManager: Lost task 1.0 in stage 0.0 (TID 1, hadoop): java.io.IOException: Cannot run program "python": error=2, No such file or directory
at java.lang.ProcessBuilder.start(ProcessBuilder.java:1048)
at org.apache.spark.api.python.PythonWorkerFactory.startDaemon(PythonWorkerFactory.scala:161)