问题背景
- 三台虚拟机环境配置如下:
hadoop102 | hadoop103 | hadoop104 |
---|---|---|
Anaconda | Anaconda | Anaconda |
spark | – | – |
pyspark | – | – |
nodemanager | nodemanager resourcemanager |
nodemanager |
datanode namenode |
datanode | datanode |
- hadoop的安装路径为(三台虚拟机都有)
- 在windows的pycharm上配置了远程环境连接集群的python环境
问题描述
当在windows上的pycharm中使用pyspark的yarn模式运行时,出现以下错误
解决方案
在程序的起始位置添加“HADOOP_CONF_DIR”的地址