Python+Hadoop Streaming实现MapReduce(如何给map和reduce的脚本传递参数)

设置参数

#!/bin/bash

hadoop fs -rmr trans_record/result

hadoop jar ./hadoop-streaming-2.0.0-mr1-cdh4.7.0.jar \
        -input $1 \
        -output trans_record/result \
        -file map.py \
        -file reduce.py \
        -mapper "python map.py" \
        -reducer "python reduce.py" \
        -jobconf mapred.reduce.tasks=1 \
        -jobconf mapred.job.name="qianjc_trans_record" \
        -cmdenv "card_start=$2" \
        -cmdenv "card_last=$3" \
        -cmdenv "trans_at=$4"


取参数


#!/usr/bin/env python
# vim: set fileencoding=utf-8
import sys
import os


def main():
    card_start = os.environ.get('card_start')
    card_last = os.environ.get('card_last')
    trans_at = float(os.environ.get('trans_at'))

    for line in sys.stdin:
        detail = line.strip().split(',')
        card = detail[0]
        money = float(detail[17])
        if trans_at == money and card_start == card[1 : 7] and card_last == card[-4 : ]:
            print '%s\t%s' % (line.strip(), detail[1])

if __name__ == '__main__':
    main()


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop StreamingHadoop 生态系统的一部分,它允许我们使用非 Java 编写的 MapReduce 程序来进行数据处理。在词频统计任务中,我们可以使用 Hadoop Streaming 来进行高效的词频统计。 首先,我们需要将我们的数据准备好,并以文本文件的形式存储在 Hadoop 分布式文件系统(HDFS)中。接下来,我们需要编写一个用于词频统计的 MapReduce 程序,这个程序可以使用任何非 Java 编程语言编写。 在 Map 阶段,我们可以使用一个脚本(比如 Python、Ruby 等)来解析每一行的文本数据,并将每个单词以键值对的方式输出。键为单词,值为数字 1,表示这个单词出现了一次。 在 Reduce 阶段,我们可以使用另一个脚本来将相同键的值进行累加。这样,我们就可以得到每个单词的词频。 通过 Hadoop Streaming,我们可以将这两个脚本作为 MapReduce 程序进行提交到 Hadoop 集群上,并通过命令行或脚本来执行任务。Hadoop Streaming 将负责调度、分配任务,并将最终的统计结果输出到指定的文件中。 总的来说,Hadoop Streaming 提供了一种灵活、高效的方式来进行词频统计。使用非 Java 编程语言来编写 MapReduce 程序可以降低学习成本,并提高开发的效率。同时,Hadoop Streaming 也充分利用了 Hadoop 的分布式计算能力,可以处理大规模的数据,提供可靠、高性能的词频统计服务。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值