spark运行example时遇到的问题

在尝试运行Spark自带的SparkPi demo时遇到了错误,首先因缺少hdfs-site.xml和core-site.xml导致报错,解决方法是将这两个配置文件从$HADOOP_HOME拷贝到$SPARK_HOME/conf,并在HDFS上创建指定路径。问题解决后,又出现YARN不支持spark shuffle service的错误,通过更新yarn-site.xml配置,将shuffle jar拷贝到NodeManager的lib目录下并重启服务,或在spark-defaults.xml中添加配置。当提交到YARN时,若报错,可能需要在.bashrc中添加配置信息并刷新环境变量。
摘要由CSDN通过智能技术生成

运行spark自带的demo:

1、提交到client

bin/spark-submit --master spark://ip:7077 --class org.apache.spark.examples.SparkPi --executor-memory 2g lib/spark-examples-1.6.0-hadoop2.6.0.jar

spark报错如下:

Exception in thread "main" java.lang.IllegalArgumentException: java.net.UnknownHostException: xxx
	at org.apache.hadoop.security.SecurityUtil.buildTokenService(SecurityUtil.java:374)
	at org.apache.hadoop.hdfs.NameNodeProxies.createNonHAProxy(NameNodeProxies.java:312)
	at org.apache.hadoop.hdfs.NameNodeProxies.createProxy(NameNodeProxies.java:178)
	at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:665)
	at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:601)
	at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:148)
	at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2596)
	at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:91)
	at org.apache
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值