Java connot reduce_Hadoop 报错: org.apache.hadoop.mapreduce.lib.input.FileSplit cannot be cast to org....

这是运行日志:14/10/0700:07:51INFOmapreduce.Job:TaskId:attempt_1412604487349_0002_m_000001_0,Status:FAILEDError:java.lang.ClassCastException:org.apache.hadoop.mapreduce.li...

这是运行日志:

14/10/07 00:07:51 INFO mapreduce.Job: Task Id : attempt_1412604487349_0002_m_000001_0, Status : FAILED

Error: java.lang.ClassCastException: org.apache.hadoop.mapreduce.lib.input.FileSplit cannot be cast to org.apache.hadoop.mapred.FileSplit

at MatrixPacket.Matrix$MatrixMapper.map(Matrix.java:32)

at MatrixPacket.Matrix$MatrixMapper.map(Matrix.java:1)

at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:145)

at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:764)

at org.apache.hadoop.mapred.MapTask.run(MapTask.java:340)

at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:168)

at java.security.AccessController.doPrivileged(Native Method)

at javax.security.auth.Subject.doAs(Subject.java:415)

at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1614)

at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:163)

这是Matrix.java 的32行附近代码:

private static int rowM;

@Override

protected void map(Object key, Text value, Context context)

throws IOException, InterruptedException {

FileSplit fileSplit=(FileSplit)context.getInputSplit();//这是第32行

String fileName=fileSplit.getPath().getName();

if(fileName.contains("M")){

String[] tuple=value.toString().split(",");

int i=Integer.parseInt(tuple[0]);

String[] tuples=tuple[1].split("\t");

int j=Integer.parseInt(tuples[0]);

请问怎么修改???

展开

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值