hadoop的Streaming学习(续)

原创 2012年03月28日 23:12:11

3.用Streaming处理键值对

默认情况下,Streaming使用\t分离记录中得键和值,当没有\t时,整个记录被视为键,值为空白文本。

不同于AttributeMax.py为每个键寻找最大值,这次我们试着为每个国家找到专利声明数的平均值。(Hadoop包含得名为Aggregate包,可以为每个键寻找最大值)

 (1)Streaming中得mapper通过STDIN读取一个 分片,并将每一行提取为一个记录。Mapper可以选择是把每条记录翻译为一个键值对,还是一行文本

            此步从 输入文件到<k1,v1>

  (2) 对于mapper输出的每一行,Streaming API将之翻译为用\t分隔的键值对,类似于MapReduce中的划分,可以用pationer来处理键。最终所有键一致的key/value进入相同reducer。

   (3)没个reducer以键为基准排序键值对,如同在Java模式中, 相同键的键值对被结组为一个键和一列值。reducer处理这些分组。

    (4)在实践中,reducer的输出(STDOUT)被写入到一个文件中(由-output指定)

  对AverageByAttributeMaper.py:

<<<<<<<<<<<<<<<<<<<Mapper   daima>>>>>>>>>>>>>>>>>>>

  • 无reducer方式运行时:-D mapred.reducer.tasks=0

      输出由行组成:一个国家代码  \t   一个计数值      ,           并且其顺序与输入记录一致

  • 以IdentityReducer方式运行,设置-D mapred.reducer.tasks=1(这种方式只要不设置-reducer选项即可)

 执行结束可以看到 虽然每行的内容与上一个相同,但是顺序被重排,键相同的“结组”在一起。可以根据这些信息考虑自己的reducer设计:

AverageByAttributeReducer.py——将相同键的值求和计数,在遇到新的键或到文件尾时,计算前一个键的平均值并输出到STDOUT中。

<<<<<<<<<<<<<<<<<<<<<<Reducer  daima>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>

这时可以运行完整的MapReduce作业。会得到真正的平均值文件。

 

4.通过Aggregate包使用Streaming

  Hadoop有一个成为Aggregate软件包,极大简化数据集的汇总统计。尤其在使用Streaming时。

在Streaming中Aggregate包作为Reducer做聚集统计,只需提供一个mapper处理记录并以特定格式输出。输出每行如下:

 function:key\tvalue

function为值聚合函数的名称(由Aggregate包中预定义函数获得),接着一组 键值对,值聚合函数列表如下:

 

如果要计算每年授权的专利数,考虑编写MapReduce程序的方法:

可以使mapper的输出将年设置为key,而value的值恒为1。这样reducer只需要对所有的1求和即可。使用基于Aggregate包的Streaming来实现:

AttributeCount.py

#!/usr/bin/env python
import sys
index = int(sys.argv[1])
for line in sys.stdin:
    fields = line.split(",")
    print "LongValueSum:" + fields[index] + "\t" + "1"

关键语句:print  "LongValueSum:" + fields[index] + "\t" + "1"。。按指定格式( function:key\tvalue) 打印到输出!

运行如下:

hadoop jar contrib/streaming/hadoop-streaming-0.20.203.jar  \
-file  AttributeCount.py    \
-input  apat63_99.txt    \
-output  output   \
-mapper 'AttributeCount.py 1'   \
-reducer aggregate

 关键在指定-reducer选项上!

 表4.3中UniqValueCount给出每个键对应惟一值个数(待理解????)

  ValueHistogram会输出多项内容,它要求的mapper输出格式为:

  ValueHistogram:key\tvalue\tcount

 

 

 

Hadoop streaming编程学习(1):统计电影打分

首先需要安装hadoop:http://www.jianshu.com/p/3064cc63d507,注意需要先安装jdk,还要在java和hadoop里面都要设置好相应的环境变量.安装好之后就可以利...

关于Hadoop-Streaming学习中碰到的问题

Hadoop在分布式计算方面很强大,而Python在文本处理也是相当方便,那么有这两者的结合吗?有,答案就是Hadoop-Streaming。Hadoop-Streaming可以将Hadoop与主流语...

Hadoop-2.4.1学习之Streaming编程

本篇文章学习了如何编写hadoop streaming程序,重点讲述了工作原理及用到的各种参数...

Hadoop&&Streaming框架学习

1.Hadoop&Streaming简介         1.1 Hadoop简介                                                 Hadoop M...

【机器学习】使用Hadoop Streaming来用Python代码完成MapReduce

介绍了,Hadoop Streaming原理 ,map-reduce的重点,最后通过Hadoop Streaming来处理经典的词频统计的问题,并给出了map和reduce阶段的代码。...

【Python学习系列四】Python程序通过hadoop-streaming提交到Hadoop集群执行MapReduce

场景:将Python程序通过hadoop-streaming提交到Hadoop集群执行。 参考:http://www.michael-noll.com/tutorials/writing-an-ha...

【hadoop学习】在伪分布式hadoop上实践word count程序——c/c++ streaming版本(未完)

很久没有原创了,说明我很久没有学习了。无论是比较忙还是比较懒,无所谓了,继续学习hadoop中。 不是所有人都喜欢java,我就不喜欢,并且从前还挺反感java程序的——效率低,而且把内存细...

hadoop streaming 介绍文档

  • 2011年03月13日 00:39
  • 49KB
  • 下载

hadoop streaming 编程参数设置

运行hadoophadoop jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-streaming.jar -mapper /home...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:hadoop的Streaming学习(续)
举报原因:
原因补充:

(最多只允许输入30个字)