yarn报错集

Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask. File does not exist: hdfs://master:8020/user/yarn/mapreduce/mr-framework/3.0.0-cdh6.2.0-mr-framework.tar.gz

解决:
1.find / -name 3.0.0-cdh6.2.0-mr-framework.tar.gz
2.cd /yarn/nm/filecache/10/
3. hadoop fs -put 3.0.0-cdh6.2.0-mr-framework.tar.gz /user/yarn/mapreduce/mr-framework/

1/1 local-dirs have errors: [ /dfs/dn1/yarn/nm : Cannot create directory: /dfs/dn1/yarn/nm ] 1/1 log-dirs have errors: [ /dfs/dn1/yarn/container-logs : Cannot create directory: /dfs/dn1/yarn/container-logs ]
背景:云主机磁盘,只有40G,装完后还剩下20G+,因为安装时,并没有挂载磁盘,目录都是默认的,因此,多有的数据,包括日志等都存放在主磁盘上,当然也包括namenode的磁盘文件(方便namenode挂了的时候恢复到内存中)等等,因此在跑程序的时候,一下子就占满了磁盘,所以只能把这部分大文件迁移到挂载的目录下
迁移之后,发现yarn过会就挂了,猜测是目录的权限问题,更改目录的权限:
chown -R yarn:hadoop /dfs/dn1/yarn/
chmod 755 -R /dfs/dn1/yarn/

注意:
请注意/dfs/dn1 的目录权限问题 默认是700权限,需要把/dfs/dn1 权限改为770,否则的话,yarn是检测不到的,依旧不报如上错误

hive执行程序报错:FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask
Container exited with a non-zero exit code 143.
两个报错的原因都是因为资源的问题,实际情况请看日志
解决办法:set mapreduce.map.memory.mb=2048
参考:https://blog.csdn.net/qq_26442553/article/details/80143559 https://www.cnblogs.com/yueweimian/p/4667888.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值