这是在运行spark时遇到的一些问题的小结,仅仅作参考,当时参考的具体地址也忘记了,如果想了解更详细的情况可以根据具体问题去搜索相关答案。
1. 运行在yarn集群上时报错:
Failed to send RPC5111091680910991783 to /192.168.xxx.xxxx:49208:java.nio.channels.ClosedChannelException
解决办法:配置yarn-site.xml一下内容
<property> <name>yarn.nodemanager.pmem-check-enabled</name> <value>false</value> </property> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property> |
2.hadoop报警告:
WARNutil.NativeCodeLoader: Unable to load native-hadoop library for yourplatform... using builtin-java