今天写sh脚本的时候居然Streaming Command Failed!
原因找了半天,还好有之前正确的对比,原因如下:
我定义了两个不同的输入input1,input2,
然后在下面这部分
hadoop jar $streaming_jar \
-D mapreduce.job.queuename=root.default \
-input $input,$input2 \
-output $output \
-mapper $mapper \
-reducer $reducer \
-file $mapper \
-file $reducer
的-input部分我写成了这样-input $input, $input2 \
习惯性打了个空格,吐血