Mapreduce报错:Split metadata size exceeded 10000000

博客内容讲述了MapReduce中遇到的错误——Split metadata size exceeded 10000000,该错误源于job.splitmetainfo文件大小超过了默认限制10MB。此文件存储了split的元数据信息,包括HDFS块和从属节点的映射。解决办法是调整参数mapreduce.jobtracker.split.metainfo.maxsize。
摘要由CSDN通过智能技术生成

报错信息

Failure Info:Job initialization failed: java.io.IOException: Split metadata size exceeded 10000000.   
Aborting job job_201205162059_1073852 at   
org.apache.hadoop.mapreduce.split.SplitMetaInfoReader.readSplitMetaInfo(SplitMetaInfoReader.java:48) at   
org.apache.hadoop.mapred.JobInProgress.createSplits(JobInProgress.java:817) at   
org.apache.hadoop.mapred.JobInProgress.initTasks(JobInProgress.java:711) at   
org.apache.hadoop.mapred.JobTracker.initJob(JobTracker.java:4028) at   
org.apache.hadoop.mapred.EagerTaskInitializationListener$InitJob.run(EagerTaskInitializationListener.java:79) at   
java.util.concurrent.ThreadPoo
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值