java 实现wordcount_利用【mapreduce】来实现——【wordcount的设计思路】

wordcount示例开发map阶段:将每行文本数据变成这样的k,v数据reduce阶段:将相同单词的一组kv数据进行聚合,累加所有的v注意事项mapreduce程序中:map阶段的进,出数据reduce阶段的进,出数据类型都应该是实现了Hadoop序列化框架类型比如:String对应Text;Integer对应IntWritable;Long对应LongWritablewordcount程序整体...
摘要由CSDN通过智能技术生成

wordcount示例开发

map阶段:将每行文本数据变成这样的k,v数据

reduce阶段:将相同单词的一组kv数据进行聚合,累加所有的v

注意事项

mapreduce程序中:

map阶段的进,出数据

reduce阶段的进,出数据

类型都应该是实现了Hadoop序列化框架类型

比如:String对应Text;Integer对应IntWritable;Long对应LongWritable

wordcount程序整体运行流程示意图

d0e131f4798b81d2af4b7b9ba54aa80f.png

1.yarn的基本概念

yarn是一个分布式程序的运行调度平台

yarn中有两大核心角色:

1、Resource Manager

接受用户提交的分布式计算程序,并为其划分资源

管理、监控各个Node Manager上的资源情况,以便于均衡负载

2、Node Manager

管理它所在机器的运算资源(cpu + 内存)

负责接受Resource Manager分配的任务,创建容器、回收资源

2.YARN的安装

node manager在物理上应该跟data node部署在一起

resource manager在物理上应该独立部署在一台专门的机器上

2.1修改配置文件

cd /root/apps/hadoop-2.7.2/etc/hadoop

vi yarn-site.xml

在里面添加

yarn.resourcemanager.hostname

hdp-01

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.nodemanager.resource.memory-mb

2048

yarn.nodemanager.resource.cpu-vcores

2

3016d1bd3ea490bbb17f5b2fbe02c01b.png

2.2拷贝配置文件到其它节点上

scp yarn-site.xml hdp-02:$PWD

scp yarn-site.xml hdp-03:$PWD

scp yarn-site.xml hdp-04:$PWD

3.启动和停止hdfs集群和yarn集群命令

1.hdfs:

stop-dfs.sh:停止配置的namenode datanode

start-dfs.sh:启动namenode datanode

2.yarn:

start-yarn.sh:启动resourcemanager和nodemanager(注:该命令应该在resourcemanager所在的

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值