关于spark :Initial job has not accepted any resources
早几天,在客户端提交job的时候 突然遇到了一个新的问题,代码没变,环境没变,出现了这个异常(因为问题已经解决了,就不贴图了),感觉很莫名奇妙。
在集群的日志中 ,我们可以看到这个这样一个错误:
在网上 找了很久的资料,说可能是 ip不对,去服务器,特意去ping了一下,能ping通,就给排掉了,后面又说是资源不够,尝试了蛮久,也给排掉了,这时候 ,挺纳闷了。
没办法 ,只好自己查看日志了
找到了Driver 的端口,它说连接,我本机看看是否有运行
在 任务管理器中找到了端口是60569的进程,等等为啥是 192.168.15.1?,这是我的局域网ip吗? 我明明是192.168.4.233
在小黑窗里面找到了192.168.15.1.。原来是VMware 坑了我。 关掉VM的网卡 就好了。
问题解决