执行Spark任务的时候,之前一直运行正常,突然就报错了。不知道原因,开始先从程序日志排查解决。
看日志在调用一个python脚本是发生了错误,
ExitCodeException exitCode=1: File "/etc/hadoop/conf.cloudera.yarn/topology.py", line 43
print default_rack
从错误上看感觉像是python版本错误导致。环境是CDH5.7,默认依赖python2. 于是看一下python版本。
[root@cdh188 etl-data-analysis]# python --version
Python 3.6.1 :: Anaconda 4.4.0 (64-bit)
果然版本不对了,猜测是哪位同学不小心把python运行环境更改了。影响到了程序的运行。
经验证,把python改回2.6后,程序即运行正常。