hive获取执行结果报错java.io.IOException: Could not find status of job:

在这里插入图片描述

Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.FSLimitException$PathComponentTooLongException): The maximum path component name limit of job_1593052953461_11181364-1605859463298-data%2Dplatform-insert+into+table+con...%2C%27%E8%8A%82%E7%9B%AE%E9%9B%86%E8%AF%A6%E6%83%85%E9%A1%B5%2D%E8%8A%82%E7%9B%AE%E8%AF%A6%E6%83%85%E9%A1%B5%E6%9B%9D%E5%85%89%27%2C%27%27%28Stage-1605859495807-1-0-SUCCEEDED-data%2Dplatform%2Dday-1605859488617.jhist_tmp in directory /tmp/hadoop-yarn/staging/history/done_intermediate/data-platform is exceeded: limit=255 length=301
  at org.apache.hadoop.hdfs.server.namenode.FSDirectory.verifyMaxComponentLength(FSDirectory.java:917)
  at org.apache.hadoop.hdfs.server.namenode.FSDirectory.addLastINode(FSDirectory.java:980)
  at org.apache.hadoop.hdfs.server.namenode.FSDirectory.addINode(FSDirectory.java:842)
  at org.apache.hadoop.hdfs.server.namenode.FSDirectory.addFile(FSDirectory.java:426)
  at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.startFileInternal(FSNamesystem.java:2575)
  at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.startFileInt(FSNamesystem.java:2450)

在hive console里面输入:

set hive.jobname.length=100;

再次执行好了;

1 set mapred.job.name=jobname

2 hive --hiveconf mapred.job.name=jobname

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值