solve hadoop streaming memory exceed

出现内存不够,指定mapper和reducer tasks数大点,就能避免这个问题,如 指定

-jobconf mapred.map.tasks=500 -jobconf mapred.reduce.tasks=500 


#!/bin/bash
/usr/bin/hadoop fs -rmr /user/hmthdfs/upload/out
/usr/bin/hadoop fs -lsr /user/hmthdfs/upload
/usr/bin/hadoop jar /usr/lib/hadoop/contrib/streaming/hadoop-streaming-0.20.2-cdh3u4.jar  -input /user/hmthdfs/upload/allinone  -output /user/hmthdfs/upload/out  -file /search/hadoop/upload/mapper.php -file /search/hadoop/upload/reducer.php  -mapper mapper.php -reducer reducer.php -jobconf mapred.map.tasks=500 -jobconf mapred.reduce.tasks=500 
/usr/bin/hadoop fs -lsr /user/hmthdfs/upload/out


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值