Spark on Yarn安装过程遇到的错误

错误1:

运行yarn clien模式时候

[main]client.RMProxy (RMProxy.java:createRMProxy(92)) - Connecting to ResourceManagerat /0.0.0.0:8032

2014-11-2615:16:35,416 INFO  [main] ipc.Client(Client.java:handleConnectionFailure(842)) - Retrying connect to server:0.0.0.0/0.0.0.0:8032. Already tried 0 time(s); retry policy isRetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)

2014-11-2615:16:36,418 INFO  [main] ipc.Client(Client.java:handleConnectionFailure(842)) - Retrying connect to server:0.0.0.0/0.0.0.0:8032. Already tried 1 time(s); retry policy isRetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)

 

解决方法:

在spark-env.sh中添加

exportHADOOP_CONF_DIR=/etc/hadoop/conf

虽然配置文件里已经有

exportHADOOP_CONF_DIR=${HADOOP_CONF_DIR:-etc/hadoop/conf}

但是不起作用。还是需要添加上面的那句。

 

错误2:

ERROR yarn.Client:Required executor memory (3072 MB), is above the max threshold (2048 MB) ofthis cluster.

这个是因为,采用了Yarn模式。Yarn里面配置的yarn.scheduler最大设置是2048M。而spark-defaults.conf里设置了spark.executor.memory为3g。可以把spark-defaults.conf里的这个参数注释掉。

 

错误3:

改成Hadoop集群模式时,出现如下错误。

WARNutil.NativeCodeLoader: Unable to load native-hadooplibrary for your platform... using builtin-java classes where applicable

14/11/28 13:50:13WARN shortcircuit.DomainSocketFactory: The short-circuit local reads featurecannot be used because libhadoop cannot be loaded.

 

14/11/28 09:56:07ERROR lzo.GPLNativeCodeLoader: Could not load native gpl library

java.lang.UnsatisfiedLinkError: no gplcompression in java.library.path

       atjava.lang.ClassLoader.loadLibrary(ClassLoader.java:1886)

       atjava.lang.Runtime.loadLibrary0(Runtime.java:849)

       atjava.lang.System.loadLibrary(System.java:1088)

       atcom.hadoop.compression.lzo.GPLNativeCodeLoader.<clinit>(GPLNativeCodeLoader.java:32)

       atcom.hadoop.compression.lzo.LzoCodec.<clinit>(LzoCodec.java:71)

 

解决方法:

#add new by dw fornative-hadoop library

exportHADOOP_HOME=/usr/lib/Hadoop

 

CLASSPATH=$CLASSPATH:$HADOOP_HOME/lib/hadoop-lzo.jar

exportJAVA_LIBRARY_PATH=$JAVA_LIBRARY_PATH:$HADOOP_HOME/lib/native/

exportLD_LIBRARY_PATH=$LD_LIBRARY_PATH:$HADOOP_HOME/lib/native/

 

这样就OK了,结果如下:

14/11/28 14:27:00INFO lzo.GPLNativeCodeLoader: Loaded native gpl library

14/11/28 14:27:00INFO lzo.LzoCodec: Successfully loaded & initialized native-lzo library[hadoop-lzo rev c3bcb9c70b90b75fc1ddbb73dfe18dfddd16dc67]

 

补充:

如果Hadoop是HA模式。Spark要是将History Log记录到Hadoop里。则相应的配置文件要修改一下。

spark-defaults.conf

spark.eventLog.dir    hdfs://zxcluster/user/spark/applicationHistory

spark.yarn.jar        hdfs://zxcluster/user/spark/share/lib/spark-assembly.jar

 

/etc/default/spark

exportSPARK_HISTORY_SERVER_LOG_DIR=hdfs://zxcluster/user/spark/applicationHistory


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值