运行Spark时报错,java.net.ConnectException: Call From xxx to localhost:8020 failed on connection exception,
caused by:java.net.ConnectException:拒绝连接
提示可以去Hadoop官网上找答案,网址如下:https://cwiki.apache.org/confluence/display/HADOOP2/ConnectionRefused
网站上列出了12条报错的原因,翻译一下:
当指定的地址有一台机器时,你会得到一个ConnectionRefused Exception,但没有程序监听客户端正在使用的特定TCP端口 - 并且没有防火墙以静默方式丢弃TCP连接请求。如果您不知道TCP连接请求是什么,请参阅规范。
除非两端都存在配置错误,否则导致这个报错的常见原因是Hadoop服务未运行。
当群集被关闭时,此堆栈跟踪非常常见 - 因为此时Hadoop服务正在整个群集中被拆除,这些服务和应用程序对于那些尚未自行关闭的应用程序是可见的。在群集关闭期间看到此错误消息无需担心。
如果应用程序或群集不工作,并且此消息出现在日志中,则更严重。
异常文本声明连接失败的主机名和端口。该端口可用于识别服务。例如,端口9000是HDFS端口。请参阅Ambari端口参考和/或Hadoop管理工具供应商的参考。
- 检查客户端使用的主机名是否正确。如果它在