Hadoop Streaming 实战: 输出文件分割

我们知道,Hadoop streaming框架默认情况下会以'/t’作为分隔符,将每行第一个'/t’之前的部分作为key,其余内容作为value,如果没有'/t’分隔符,则整行作为key;这个key/tvalue对又作为reduce的输入。hadoop 提供配置供用户自主设置分隔符。
-D stream.map.output.field.separator :设置map输出中key和value的分隔符
-D stream.num.map.output.key.fields : 设置map程序分隔符的位置,该位置之前的部分作为key,之后的部分作为value
-D stream.reduce.output.field.separator:设置reduce输出中key和value的分隔符
-D stream.num.reduce.output.key.fields:设置reduce程序分隔符的位置

实例(map输出配置):
1. 编写map程序mapper.sh;reduce程序reducer.sh; 测试数据test.txt

mapper.sh: #!/bin/sh cat reducer.sh: #!/bin/sh sort test.txt内容: 1,2,1,1,1 1,2,2,1,1 1,3,1,1,1 1,3,2,1,1 1,3,3,1,1 1,2,3,1,1 1,3,1,1,1 1,3,2,1,1 1,3,3,1,1

2. test.txt放入hadoop,两种方式运行
1)无分隔符设置运行

$ hadoop fs -put test.txt /app/test/ $ hadoop streaming -input /app/test/test.txt / -output /app/test/test_result / -mapper ./mapper.sh -reducer ./reducer.sh -file mapper.sh -file reducer.sh / -jobconf mapred.reduce.tasks=2 / -jobconf mapre.job.name="sep_test" $ hadoop fs –cat /app/test/test_result/part-00000 1,2,2,1,1 1,3,1,1,1 1,3,1,1,1 1,3,3,1,1 1,3,3,1,1 $ hadoop fs –cat /app/test/test_result/part-00001 1,2,1,1,1 1,2,3,1,1 1,3,2,1,1 1,3,2,1,1

2)设置分隔符运行

$ hadoop streaming -D stream.reduce.output.field.separator=, -D stream.num.reduce.output.key.fields=2 -input /app/test/test.txt -output /app/test/test_result_1 -mapper ./mapper.sh -reducer ./reducer.sh -file mapper.sh -file reducer.sh -jobconf mapred.reduce.tasks=2 -jobconf mapre.job.name="sep_test" $ hadoop fs -cat /app/test/test_result_1/part-00000 1,2 1,1,1 1,2 2,1,1 1,2 3,1,1 $ hadoop fs -cat /app/test/test_result_1/part-00001 1,3 1,1,1 1,3 1,1,1 1,3 2,1,1 1,3 2,1,1 1,3 3,1,1 1,3 3,1,1
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值