确保spark 集群和hadoop集群 都能正确运行修改spark的配置文件 spark-env.sh 加上 这句话: export HADOOP_CONF_DIR=/export/server/hadoop/etc/hadoop 让spark知道hadoop配置文件的路径将spark-env.sh 分发到每台服务器上