python hadoop mapreduce_Python中的MapReduce以及在Hadoop环境下运行

本文介绍了如何使用Python编写MapReduce程序,并在Linux环境和Hadoop环境中运行。首先,在Linux上创建并编辑mapper.py和reduce.py文件,分别实现映射和归约功能。然后,通过命令行工具运行mapper和reduce程序,处理ddd.txt文件。接着,创建run.sh脚本,配置Hadoop Streaming jar文件路径,将Python脚本作为输入和输出,将数据上传到HDFS并执行。最后,查看Hadoop运行结果并保存到本地。
摘要由CSDN通过智能技术生成

目录

零、码仙励志

一、在Linux中运行

首先在Linux中新建下面的目录,里面什么也不要放,然后进入到目录

/home/hadoopuser/mydoc/py

然后在里面创建一个ddd.txt文件

里面编写下面内容

aaa

bbb

aaa

bbb

ddd

ccc

ddd

接着新建mapper.py文件

里面编写下面内容

#!/usr/bin/env python

# encoding=utf-8

import sys

for line in sys.stdin:

line = line.strip()

words = line.split()

for word in words:

print("%s\t%s" % (word, 1))

接着新建reduce.py文件

里面编写下面内容

#!/usr/bin/env python

# encoding=utf-8

from operator import itemgetter

import sys

current_word = None

current_count = 0

word = None

for line in sys.stdin:

line = line.strip()

word, count = line.split('\t', 1)

try:

count = int(count)

except ValueError: #count如果不是数字的话,直接忽略掉

continue

if current_word == word:

current_count += count

else:

if current_word:

print("%s\t%s" % (current_word, current_count))

current_count = count

current_word = word

if word == current_word: #不要忘记最后的输出

print("%s\t%s" % (current_word, current_count))

此时一共有三个文件

接着给mapper.py添加执行权限

chmod 777 mapper.py

接着给reduce.py添加执行权限

chmod 777 reduce.py

接下来开始运行

mapper.py程序运行

more ddd.txt | python ./mapper.py

排序运行

more ddd.txt | python ./mapper.py | sort

more ddd.txt | python ./mapper.py | sort -k1,1

俩个程序同时运行

more ddd.txt | python ./mapper.py | sort -k1,1 | ./reduce.py

二、在Hadoop环境中运行

还是在这个目录下,新建一个run.sh文件

里面的内容如下

hadoop jar /opt/hadoop/hadoop/share/hadoop/tools/lib/hadoop-streaming-2.7.5.jar \

-file /home/hadoopuser/mydoc/py/mapper.py -mapper /home/hadoopuser/mydoc/py/mapper.py \

-file /home/hadoopuser/mydoc/py/reduce.py -reducer /home/hadoopuser/mydoc/py/reduce.py \

-input /tmp/py/input/* -output /tmp/py/output

第一行配置的是hadoop-streaming-2.7.5.jar所在的位置,根据你的具体情况修改

我的环境是根据下面这篇博客搭建的

然后给run.sh添加可执行权限

chmod 777 run.sh

接着在hdfs环境下新建文件夹

hdfs dfs -mkdir -p /tmp/py/input

然后把ddd.txt上传进去

hdfs dfs -put ddd.txt /tmp/py/input

接着运行run.sh

source run.sh

接着查看生成的文件

hdfs dfs -ls /tmp/py/output

其中part-00000就是运行结果,打开看一下

hdfs dfs -cat /tmp/py/output/part-00000

然后把运行结果保存到本地

hdfs dfs -get /tmp/py/output/part-00000 /home/hadoopuser/mydoc/py

查看是否保存成功

标签:count,mapper,word,Python,py,Hadoop,MapReduce,current,ddd

来源: https://blog.csdn.net/tswc_byy/article/details/90645858

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值