记录一下spark on yarn练习时的一次错误
首先是按部就班的,安装JDK,安装Hadoop,安装Spark
可是在配置的spark-env.sh文件的时候,也没有仔细考虑,直接Ctrl+V了
一切准备工作完成之后,就开始提交任务做测试了不出意外的话,意外来了
一直循环这个
查yarn日志,没有信息,网上的办法也试了,都不行
折腾半天,后来才发现是配置spark-env.sh的时候错了,我的hadoop路径是这样的
而我直接复制粘贴是这样的
哎。。。。粗心啊,搞我半天
修改之后,提交测试任务