hadoop

尚硅谷大数据技术之Hadoop(入门)
(作者:尚硅谷大数据研发部)

版本:V2.0

第1章 大数据概论
1.1 大数据概念
大数据概念如图2-1所示。

图2-1 大数据概念
1.2 大数据特点(4V)
大数据特点如图2-2,2-3,2-4,2-5所示

图2-2 大数据特点之大量

图2-3 大数据特点之高速

图2-4 大数据特点之多样

图2-5 大数据特点之低价值密度
1.3 大数据应用场景
大数据应用场景如图2-6,2-7,2-8,2-9,2-10,2-11所示

图2-6 大数据应用场景之物流仓储

图2-7 大数据应用场景之零售

图2-8 大数据应用场景之旅游

图2-9 大数据应用场景之商品广告推荐

图2-10 大数据应用场景之保险、金融及房产

图2-11 大数据应用场景人工智能
1.4 大数据发展前景
大数据发展前景如图2-12,2-13,2-14,2-15,2-16所示

图2-12 大数据发展前景之国家政策

图2-13 大数据发展前景之国际方面

图2-14 大数据发展前景之高校方面

图2-15 大数据发展前景之平均薪资

图2-16 大数据发展前景之整体薪资
1.5 大数据部门业务流程分析
大数据部门业务流程分析如图2-17所示。

图2-17 大数据部门业务流程分析
1.6 大数据部门组织结构(重点)
大数据部门组织结构,适用于大中型企业,如图2-18所示。

图2-18 大数据部门组织结构
第2章 从Hadoop框架讨论大数据生态
2.1 Hadoop是什么

2.2 Hadoop发展历史

2.3 Hadoop三大发行版本
Hadoop三大发行版本:Apache、Cloudera、Hortonworks。
Apache版本最原始(最基础)的版本,对于入门学习最好。
Cloudera在大型互联网企业中用的较多。
Hortonworks文档较好。

  1. Apache Hadoop
    官网地址:http://hadoop.apache.org/releases.html
    下载地址:https://archive.apache.org/dist/hadoop/common/
  2. Cloudera Hadoop
    官网地址:https://www.cloudera.com/downloads/cdh/5-10-0.html
    下载地址:http://archive-primary.cloudera.com/cdh5/cdh/5/
    (1)2008年成立的Cloudera是最早将Hadoop商用的公司,为合作伙伴提供Hadoop的商用解决方案,主要是包括支持、咨询服务、培训。
    (2)2009年Hadoop的创始人Doug Cutting也加盟Cloudera公司。Cloudera产品主要为CDH,Cloudera Manager,Cloudera Support
    (3)CDH是Cloudera的Hadoop发行版,完全开源,比Apache Hadoop在兼容性,安全性,稳定性上有所增强。
    (4)Cloudera Manager是集群的软件分发及管理监控平台,可以在几个小时内部署好一个Hadoop集群,并对集群的节点及服务进行实时监控。Cloudera Support即是对Hadoop的技术支持。
    (5)Cloudera的标价为每年每个节点4000美元。Cloudera开发并贡献了可实时处理大数据的Impala项目。
  3. Hortonworks Hadoop
    官网地址:https://hortonworks.com/products/data-center/hdp/
    下载地址:https://hortonworks.com/downloads/#data-platform
    (1)2011年成立的Hortonworks是雅虎与硅谷风投公司Benchmark Capital合资组建。
    (2)公司成立之初就吸纳了大约25名至30名专门研究Hadoop的雅虎工程师,上述工程师均在2005年开始协助雅虎开发Hadoop,贡献了Hadoop80%的代码。
    (3)雅虎工程副总裁、雅虎Hadoop开发团队负责人Eric Baldeschwieler出任Hortonworks的首席执行官。
    (4)Hortonworks的主打产品是Hortonworks Data Platform(HDP),也同样是100%开源的产品,HDP除常见的项目外还包括了Ambari,一款开源的安装和管理系统。
    (5)HCatalog,一个元数据管理系统,HCatalog现已集成到Facebook开源的Hive中。Hortonworks的Stinger开创性的极大的优化了Hive项目。Hortonworks为入门提供了一个非常好的,易于使用的沙盒。
    (6)Hortonworks开发了很多增强特性并提交至核心主干,这使得Apache Hadoop能够在包括Window Server和Windows Azure在内的Microsoft Windows平台上本地运行。定价以集群为基础,每10个节点每年为12500美元。
    2.4 Hadoop的优势(4高)

2.5 Hadoop组成(面试重点)

图2-21 Hadoop1.x与Hadoop2.x的区别
2.5.1 HDFS架构概述
HDFS(Hadoop Distributed File System)的架构概述,如图2-23所示。
图2-23 HDFS架构概述
2.5.2 YARN架构概述
YARN架构概述,如图2-24所示。

图2-24 YARN架构概述
2.5.3 MapReduce架构概述
MapReduce将计算过程分为两个阶段:Map和Reduce,如图2-25所示
1)Map阶段并行处理输入数据
2)Reduce阶段对Map结果进行汇总

图2-25 MapReduce架构概述
2.6 大数据技术生态体系
大数据技术生态体系如图2-26所示。

图2-26 大数据技术生态体系
图中涉及的技术名词解释如下:
1)Sqoop:Sqoop是一款开源的工具,主要用于在Hadoop、Hive与传统的数据库(MySql)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
2)Flume:Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
3)Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:
(1)通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
(2)高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。
(3)支持通过Kafka服务器和消费机集群来分区消息。
(4)支持Hadoop并行数据加载。
4)Storm:Storm用于“连续计算”,对数据流做连续查询,在计算时就将结果以流的形式输出给用户。
5)Spark:Spark是当前最流行的开源大数据内存计算框架。可以基于Hadoop上存储的大数据进行计算。
6)Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统。
7)Hbase:HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。
8)Hive:Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
10)R语言:R是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个自由、免费、源代码开放的软件,它是一个用于统计计算和统计制图的优秀工具。
11)Mahout:Apache Mahout是个可扩展的机器学习和数据挖掘库。
12)ZooKeeper:Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。
2.7 推荐系统框架图
推荐系统项目架构如图2-27所示。

图2-27 推荐系统项目架构
第3章 Hadoop运行环境搭建(开发重点)
3.1 虚拟机环境准备

  1. 克隆虚拟机
  2. 修改克隆虚拟机的静态IP
  3. 修改主机名
  4. 关闭防火墙
  5. 创建atguigu用户
  6. 配置atguigu用户具有root权限(详见《尚硅谷大数据技术之Linux》)
    7.在/opt目录下创建文件夹
    (1)在/opt目录下创建module、software文件夹
    [atguigu@hadoop101 opt]$ sudo mkdir module
    [atguigu@hadoop101 opt]$ sudo mkdir software
    (2)修改module、software文件夹的所有者cd
    [atguigu@hadoop101 opt]$ sudo chown atguigu:atguigu module/ software/
    [atguigu@hadoop101 opt]$ ll
    总用量 8
    drwxr-xr-x. 2 atguigu atguigu 4096 1月 17 14:37 module
    drwxr-xr-x. 2 atguigu atguigu 4096 1月 17 14:38 software
    3.2 安装JDK
  7. 卸载现有JDK
    (1)查询是否安装Java软件:
    [atguigu@hadoop101 opt]$ rpm -qa | grep java
    (2)如果安装的版本低于1.7,卸载该JDK:
    [atguigu@hadoop101 opt]$ sudo rpm -e 软件包
    (3)查看JDK安装路径:
    [atguigu@hadoop101 ~]$ which java
  8. 用SecureCRT工具将JDK导入到opt目录下面的software文件夹下面,如图2-28所示

图2-28 导入JDK
“alt+p”进入sftp模式,如图2-29所示

图2-29 进入sftp模式
选择jdk1.8拖入,如图2-30,2-31所示

图2-30 拖入jdk1.8

图2-31 拖入jdk1.8完成
3. 在Linux系统下的opt目录中查看软件包是否导入成功
[atguigu@hadoop101 opt]$ cd software/
[atguigu@hadoop101 software]$ ls
hadoop-2.7.2.tar.gz jdk-8u144-linux-x64.tar.gz
4. 解压JDK到/opt/module目录下
[atguigu@hadoop101 software]$ tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/
5. 配置JDK环境变量
(1)先获取JDK路径
[atguigu@hadoop101 jdk1.8.0_144]$ pwd
/opt/module/jdk1.8.0_144
(2)打开/etc/profile文件
[atguigu@hadoop101 software]$ sudo vi /etc/profile
在profile文件末尾添加JDK路径
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH= P A T H : PATH: PATH:JAVA_HOME/bin
(3)保存后退出
:wq
(4)让修改后的文件生效
[atguigu@hadoop101 jdk1.8.0_144]$ source /etc/profile
6. 测试JDK是否安装成功
[atguigu@hadoop101 jdk1.8.0_144]# java -version
java version “1.8.0_144”
注意:重启(如果java -version可以用就不用重启)
[atguigu@hadoop101 jdk1.8.0_144]$ sync
[atguigu@hadoop101 jdk1.8.0_144]$ sudo reboot
3.3 安装Hadoop
0. Hadoop下载地址:
https://archive.apache.org/dist/hadoop/common/hadoop-2.7.2/

  1. 用SecureCRT工具将hadoop-2.7.2.tar.gz导入到opt目录下面的software文件夹下面
    切换到sftp连接页面,选择Linux下编译的hadoop jar包拖入,如图2-32所示

图2-32 拖入hadoop的tar包

图2-33 拖入Hadoop的tar包成功
2. 进入到Hadoop安装包路径下
[atguigu@hadoop101 ~]$ cd /opt/software/
3. 解压安装文件到/opt/module下面
[atguigu@hadoop101 software]$ tar -zxvf hadoop-2.7.2.tar.gz -C /opt/module/
4. 查看是否解压成功
[atguigu@hadoop101 software]$ ls /opt/module/
hadoop-2.7.2
5. 将Hadoop添加到环境变量
(1)获取Hadoop安装路径
[atguigu@hadoop101 hadoop-2.7.2]$ pwd
/opt/module/hadoop-2.7.2
(2)打开/etc/profile文件
[atguigu@hadoop101 hadoop-2.7.2]$ sudo vi /etc/profile
在profile文件末尾添加JDK路径:(shitf+g)
##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin
export PATH= P A T H : PATH: PATH:HADOOP_HOME/sbin
(3)保存后退出
:wq
(4)让修改后的文件生效
[atguigu@ hadoop101 hadoop-2.7.2]$ source /etc/profile
6. 测试是否安装成功
[atguigu@hadoop101 hadoop-2.7.2]$ hadoop version
Hadoop 2.7.2
7. 重启(如果Hadoop命令不能用再重启)
[atguigu@ hadoop101 hadoop-2.7.2]$ sync
[atguigu@ hadoop101 hadoop-2.7.2]$ sudo reboot
3.4 Hadoop目录结构
1、查看Hadoop目录结构
[atguigu@hadoop101 hadoop-2.7.2]$ ll
总用量 52
drwxr-xr-x. 2 atguigu atguigu 4096 5月 22 2017 bin
drwxr-xr-x. 3 atguigu atguigu 4096 5月 22 2017 etc
drwxr-xr-x. 2 atguigu atguigu 4096 5月 22 2017 include
drwxr-xr-x. 3 atguigu atguigu 4096 5月 22 2017 lib
drwxr-xr-x. 2 atguigu atguigu 4096 5月 22 2017 libexec
-rw-r–r--. 1 atguigu atguigu 15429 5月 22 2017 LICENSE.txt
-rw-r–r--. 1 atguigu atguigu 101 5月 22 2017 NOTICE.txt
-rw-r–r--. 1 atguigu atguigu 1366 5月 22 2017 README.txt
drwxr-xr-x. 2 atguigu atguigu 4096 5月 22 2017 sbin
drwxr-xr-x. 4 atguigu atguigu 4096 5月 22 2017 share
2、重要目录
(1)bin目录:存放对Hadoop相关服务(HDFS,YARN)进行操作的脚本
(2)etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件
(3)lib目录:存放Hadoop的本地库(对数据进行压缩解压缩功能)
(4)sbin目录:存放启动或停止Hadoop相关服务的脚本
(5)share目录:存放Hadoop的依赖jar包、文档、和官方案例
第4章 Hadoop运行模式
Hadoop运行模式包括:本地模式、伪分布式模式以及完全分布式模式。
Hadoop官方网站:http://hadoop.apache.org/
4.1 本地运行模式
4.1.1 官方Grep案例

  1. 创建在hadoop-2.7.2文件下面创建一个input文件夹
    [atguigu@hadoop101 hadoop-2.7.2]$ mkdir input
  2. 将Hadoop的xml配置文件复制到input
    [atguigu@hadoop101 hadoop-2.7.2]$ cp etc/hadoop/*.xml input
  3. 执行share目录下的MapReduce程序
    [atguigu@hadoop101 hadoop-2.7.2]$ bin/hadoop jar
    share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output ‘dfs[a-z.]+’
  4. 查看输出结果
    [atguigu@hadoop101 hadoop-2.7.2]$ cat output/*
    4.1.2 官方WordCount案例
  5. 创建在hadoop-2.7.2文件下面创建一个wcinput文件夹
    [atguigu@hadoop101 hadoop-2.7.2]$ mkdir wcinput
  6. 在wcinput文件下创建一个wc.input文件
    [atguigu@hadoop101 hadoop-2.7.2]$ cd wcinput
    [atguigu@hadoop101 wcinput]$ touch wc.input
  7. 编辑wc.input文件
    [atguigu@hadoop101 wcinput]$ vi wc.input
    在文件中输入如下内容
    hadoop yarn
    hadoop mapreduce
    atguigu
    atguigu
    保存退出::wq
  8. 回到Hadoop目录/opt/module/hadoop-2.7.2
  9. 执行程序
    [atguigu@hadoop101 hadoop-2.7.2]$ hadoop jar
    share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount wcinput wcoutput
  10. 查看结果
    [atguigu@hadoop101 hadoop-2.7.2]$ cat wcoutput/part-r-00000
    atguigu 2
    hadoop 2
    mapreduce 1
    yarn 1
    4.2 伪分布式运行模式
    4.2.1 启动HDFS并运行MapReduce程序
  11. 分析
    (1)配置集群
    (2)启动、测试集群增、删、查
    (3)执行WordCount案例
  12. 执行步骤
    (1)配置集群
    (a)配置:hadoop-env.sh
    Linux系统中获取JDK的安装路径:
    [atguigu@ hadoop101 ~]# echo $JAVA_HOME
    /opt/module/jdk1.8.0_144
    修改JAVA_HOME 路径:
    export JAVA_HOME=/opt/module/jdk1.8.0_144
    (b)配置:core-site.xml
fs.defaultFS hdfs://hadoop101:9000 hadoop.tmp.dir /opt/module/hadoop-2.7.2/data/tmp (c)配置:hdfs-site.xml dfs.replication 1 (2)启动集群 (a)格式化NameNode(第一次启动时格式化,以后就不要总格式化) [atguigu@hadoop101 hadoop-2.7.2]$ bin/hdfs namenode -format (b)启动NameNode [atguigu@hadoop101 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode (c)启动DataNode [atguigu@hadoop101 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start datanode (3)查看集群 (a)查看是否启动成功 [atguigu@hadoop101 hadoop-2.7.2]$ jps 13586 NameNode 13668 DataNode 13786 Jps 注意:jps是JDK中的命令,不是Linux命令。不安装JDK不能使用jps (b)web端查看HDFS文件系统 http://hadoop101:50070/dfshealth.html#tab-overview 注意:如果不能查看,看如下帖子处理 http://www.cnblogs.com/zlslch/p/6604189.html (c)查看产生的Log日志 说明:在企业中遇到Bug时,经常根据日志提示信息去分析问题、解决Bug。 当前目录:/opt/module/hadoop-2.7.2/logs [atguigu@hadoop101 logs]$ ls hadoop-atguigu-datanode-hadoop.atguigu.com.log hadoop-atguigu-datanode-hadoop.atguigu.com.out hadoop-atguigu-namenode-hadoop.atguigu.com.log hadoop-atguigu-namenode-hadoop.atguigu.com.out SecurityAuth-root.audit [atguigu@hadoop101 logs]# cat hadoop-atguigu-datanode-hadoop101.log (d)思考:为什么不能一直格式化NameNode,格式化NameNode,要注意什么? [atguigu@hadoop101 hadoop-2.7.2]$ cd data/tmp/dfs/name/current/ [atguigu@hadoop101 current]$ cat VERSION clusterID=CID-f0330a58-36fa-4a2a-a65f-2688269b5837

[atguigu@hadoop101 hadoop-2.7.2]$ cd data/tmp/dfs/data/current/
clusterID=CID-f0330a58-36fa-4a2a-a65f-2688269b5837

注意:格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。所以,格式NameNode时,一定要先删除data数据和log日志,然后再格式化NameNode。
(4)操作集群
(a)在HDFS文件系统上创建一个input文件夹
[atguigu@hadoop101 hadoop-2.7.2]$ bin/hdfs dfs -mkdir -p /user/atguigu/input
(b)将测试文件内容上传到文件系统上
[atguigu@hadoop101 hadoop-2.7.2] b i n / h d f s d f s − p u t w c i n p u t / w c . i n p u t / u s e r / a t g u i g u / i n p u t / ( c ) 查 看 上 传 的 文 件 是 否 正 确 [ a t g u i g u @ h a d o o p 101 h a d o o p − 2.7.2 ] bin/hdfs dfs -put wcinput/wc.input /user/atguigu/input/ (c)查看上传的文件是否正确 [atguigu@hadoop101 hadoop-2.7.2] bin/hdfsdfsputwcinput/wc.input/user/atguigu/input/c[atguigu@hadoop101hadoop2.7.2] bin/hdfs dfs -ls /user/atguigu/input/
[atguigu@hadoop101 hadoop-2.7.2]$ bin/hdfs dfs -cat /user/atguigu/ input/wc.input
(d)运行MapReduce程序
[atguigu@hadoop101 hadoop-2.7.2]$ bin/hadoop jar
share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/atguigu/input/ /user/atguigu/output
(e)查看输出结果
命令行查看:
[atguigu@hadoop101 hadoop-2.7.2]$ bin/hdfs dfs -cat /user/atguigu/output/*
浏览器查看,如图2-34所示

图2-34 查看output文件
(f)将测试文件内容下载到本地
[atguigu@hadoop101 hadoop-2.7.2]$ hdfs dfs -get /user/atguigu/output/part-r-00000 ./wcoutput/
(g)删除输出结果
[atguigu@hadoop101 hadoop-2.7.2]$ hdfs dfs -rm -r /user/atguigu/output
4.2.2 启动YARN并运行MapReduce程序

  1. 分析
    (1)配置集群在YARN上运行MR
    (2)启动、测试集群增、删、查
    (3)在YARN上执行WordCount案例
  2. 执行步骤
    (1)配置集群
    (a)配置yarn-env.sh
    配置一下JAVA_HOME
    export JAVA_HOME=/opt/module/jdk1.8.0_144
    (b)配置yarn-site.xml
yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname hadoop101 (c)配置:mapred-env.sh 配置一下JAVA_HOME export JAVA_HOME=/opt/module/jdk1.8.0_144 (d)配置: (对mapred-site.xml.template重新命名为) mapred-site.xml [atguigu@hadoop101 hadoop]$ mv mapred-site.xml.template mapred-site.xml [atguigu@hadoop101 hadoop]$ vi mapred-site.xml mapreduce.framework.name yarn (2)启动集群 (a)启动前必须保证NameNode和DataNode已经启动 (b)启动ResourceManager [atguigu@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh start resourcemanager (c)启动NodeManager [atguigu@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager (3)集群操作 (a)YARN的浏览器页面查看,如图2-35所示 http://hadoop101:8088/cluster

图2-35 YARN的浏览器页面
(b)删除文件系统上的output文件
[atguigu@hadoop101 hadoop-2.7.2]$ bin/hdfs dfs -rm -R /user/atguigu/output
(c)执行MapReduce程序
[atguigu@hadoop101 hadoop-2.7.2]$ bin/hadoop jar
share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/atguigu/input /user/atguigu/output
(d)查看运行结果,如图2-36所示
[atguigu@hadoop101 hadoop-2.7.2]$ bin/hdfs dfs -cat /user/atguigu/output/*

图2-36 查看运行结果
4.2.3 配置历史服务器
为了查看程序的历史运行情况,需要配置一下历史服务器。具体配置步骤如下:

  1. 配置mapred-site.xml
    [atguigu@hadoop101 hadoop]$ vi mapred-site.xml
    在该文件里面增加如下配置。
mapreduce.jobhistory.address hadoop101:10020 mapreduce.jobhistory.webapp.address hadoop101:19888 2. 启动历史服务器 [atguigu@hadoop101 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh start historyserver 3. 查看历史服务器是否启动 [atguigu@hadoop101 hadoop-2.7.2]$ jps 4. 查看JobHistory http://hadoop101:19888/jobhistory 4.2.4 配置日志的聚集 日志聚集概念:应用运行完成以后,将程序运行日志信息上传到HDFS系统上。 日志聚集功能好处:可以方便的查看到程序运行详情,方便开发调试。 注意:开启日志聚集功能,需要重新启动NodeManager 、ResourceManager和HistoryManager。 开启日志聚集功能具体步骤如下: 1. 配置yarn-site.xml [atguigu@hadoop101 hadoop]$ vi yarn-site.xml 在该文件里面增加如下配置。 yarn.log-aggregation-enable true yarn.log-aggregation.retain-seconds 604800 2. 关闭NodeManager 、ResourceManager和HistoryManager [atguigu@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop resourcemanager [atguigu@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop nodemanager [atguigu@hadoop101 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh stop historyserver 3. 启动NodeManager 、ResourceManager和HistoryManager [atguigu@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh start resourcemanager [atguigu@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager [atguigu@hadoop101 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh start historyserver 4. 删除HDFS上已经存在的输出文件 [atguigu@hadoop101 hadoop-2.7.2]$ bin/hdfs dfs -rm -R /user/atguigu/output 5. 执行WordCount程序 [atguigu@hadoop101 hadoop-2.7.2]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/atguigu/input /user/atguigu/output 6. 查看日志,如图2-37,2-38,2-39所示 http://hadoop101:19888/jobhistory

图2-37 Job History

图2-38 job运行情况

图2-39 查看日志
4.2.5 配置文件说明
Hadoop配置文件分两类:默认配置文件和自定义配置文件,只有用户想修改某一默认配置值时,才需要修改自定义配置文件,更改相应属性值。
(1)默认配置文件:
表2-1
要获取的默认文件 文件存放在Hadoop的jar包中的位置
[core-default.xml] hadoop-common-2.7.2.jar/ core-default.xml
[hdfs-default.xml] hadoop-hdfs-2.7.2.jar/ hdfs-default.xml
[yarn-default.xml] hadoop-yarn-common-2.7.2.jar/ yarn-default.xml
[mapred-default.xml] hadoop-mapreduce-client-core-2.7.2.jar/ mapred-default.xml
(2)自定义配置文件:
core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml四个配置文件存放在$HADOOP_HOME/etc/hadoop这个路径上,用户可以根据项目需求重新进行修改配置。
4.3 完全分布式运行模式(开发重点)
分析:
1)准备3台客户机(关闭防火墙、静态ip、主机名称)
2)安装JDK
3)配置环境变量
4)安装Hadoop
5)配置环境变量
6)配置集群
7)单点启动
8)配置ssh
9)群起并测试集群
4.3.1 虚拟机准备
详见3.1章。
4.3.2 编写集群分发脚本xsync

  1. scp(secure copy)安全拷贝
    (1)scp定义:
    scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)
    (2)基本语法
    scp -r p d i r / pdir/ pdir/fname u s e r @ h a d o o p user@hadoop user@hadoophost: p d i r / pdir/ pdir/fname
    命令 递归 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
    (3)案例实操
    (a)在hadoop101上,将hadoop101中/opt/module目录下的软件拷贝到hadoop102上。
    [atguigu@hadoop101 /]$ scp -r /opt/module root@hadoop102:/opt/module
    (b)在hadoop103上,将hadoop101服务器上的/opt/module目录下的软件拷贝到hadoop103上。
    [atguigu@hadoop103 opt] s u d o s c p − r a t g u i g u @ h a d o o p 101 : / o p t / m o d u l e r o o t @ h a d o o p 103 : / o p t / m o d u l e ( c ) 在 h a d o o p 103 上 操 作 将 h a d o o p 101 中 / o p t / m o d u l e 目 录 下 的 软 件 拷 贝 到 h a d o o p 104 上 。 [ a t g u i g u @ h a d o o p 103 o p t ] sudo scp -r atguigu@hadoop101:/opt/module root@hadoop103:/opt/module (c)在hadoop103上操作将hadoop101中/opt/module目录下的软件拷贝到hadoop104上。 [atguigu@hadoop103 opt] sudoscpratguigu@hadoop101:/opt/moduleroot@hadoop103:/opt/modulechadoop103hadoop101/opt/modulehadoop104[atguigu@hadoop103opt] scp -r atguigu@hadoop101:/opt/module root@hadoop104:/opt/module
    注意:拷贝过来的/opt/module目录,别忘了在hadoop102、hadoop103、hadoop104上修改所有文件的,所有者和所有者组。sudo chown atguigu:atguigu -R /opt/module
    (d)将hadoop101中/etc/profile文件拷贝到hadoop102的/etc/profile上。
    [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop102:/etc/profile
    (e)将hadoop101中/etc/profile文件拷贝到hadoop103的/etc/profile上。
    [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop103:/etc/profile
    (f)将hadoop101中/etc/profile文件拷贝到hadoop104的/etc/profile上。
    [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop104:/etc/profile
    注意:拷贝过来的配置文件别忘了source一下/etc/profile,。
  2. rsync 远程同步工具
    rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
    rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。
    (1)基本语法
    rsync -rvl p d i r / pdir/ pdir/fname u s e r @ h a d o o p user@hadoop user@hadoophost: p d i r / pdir/ pdir/fname
    命令 选项参数 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
    选项参数说明
    表2-2
    选项 功能
    -r 递归
    -v 显示复制过程
    -l 拷贝符号连接
    (2)案例实操
    (a)把hadoop101机器上的/opt/software目录同步到hadoop102服务器的root用户下的/opt/目录
    [atguigu@hadoop101 opt]$ rsync -rvl /opt/software/ root@hadoop102:/opt/software
  3. xsync集群分发脚本
    (1)需求:循环复制文件到所有节点的相同目录下
    (2)需求分析:
    (a)rsync命令原始拷贝:
    rsync -rvl /opt/module root@hadoop103:/opt/
    (b)期望脚本:
    xsync要同步的文件名称
    (c)说明:在/home/atguigu/bin这个目录下存放的脚本,atguigu用户可以在系统任何地方直接执行。
    (3)脚本实现
    (a)在/home/atguigu目录下创建bin目录,并在bin目录下xsync创建文件,文件内容如下:
    [atguigu@hadoop102 ~]$ mkdir bin
    [atguigu@hadoop102 ~]$ cd bin/
    [atguigu@hadoop102 bin]$ touch xsync
    [atguigu@hadoop102 bin]$ vi xsync
    在该文件中编写如下代码
    #!/bin/bash
    #1 获取输入参数个数,如果没有参数,直接退出
    pcount=$#
    if((pcount==0)); then
    echo no args;
    exit;
    fi

#2 获取文件名称
p1=$1
fname=basename $p1
echo fname=$fname

#3 获取上级目录到绝对路径
pdir=cd -P $(dirname $p1); pwd
echo pdir=$pdir

#4 获取当前用户名称
user=whoami

#5 循环
for((host=103; host<105; host++)); do
echo ------------------- hadoop$host --------------
rsync -rvl p d i r / pdir/ pdir/fname u s e r @ h a d o o p user@hadoop user@hadoophost: p d i r d o n e ( b ) 修 改 脚 本 x s y n c 具 有 执 行 权 限 [ a t g u i g u @ h a d o o p 102 b i n ] pdir done (b)修改脚本 xsync 具有执行权限 [atguigu@hadoop102 bin] pdirdonebxsync[atguigu@hadoop102bin] chmod 777 xsync
(c)调用脚本形式:xsync 文件名称
[atguigu@hadoop102 bin]$ xsync /home/atguigu/bin
注意:如果将xsync放到/home/atguigu/bin目录下仍然不能实现全局使用,可以将xsync移动到/usr/local/bin目录下。
4.3.3 集群配置

  1. 集群部署规划
    表2-3
    hadoop102 hadoop103 hadoop104
    HDFS
    NameNode
    DataNode
    DataNode SecondaryNameNode
    DataNode
    YARN
    NodeManager ResourceManager
    NodeManager
    NodeManager
  2. 配置集群
    (1)核心配置文件
    配置core-site.xml
    [atguigu@hadoop102 hadoop]$ vi core-site.xml
    在该文件中编写如下配置
fs.defaultFS hdfs://hadoop102:9000 hadoop.tmp.dir /opt/module/hadoop-2.7.2/data/tmp (2)HDFS配置文件 配置hadoop-env.sh [atguigu@hadoop102 hadoop]$ vi hadoop-env.sh export JAVA_HOME=/opt/module/jdk1.8.0_144 配置hdfs-site.xml [atguigu@hadoop102 hadoop]$ vi hdfs-site.xml 在该文件中编写如下配置 dfs.replication 3 dfs.namenode.secondary.http-address hadoop104:50090 (3)YARN配置文件 配置yarn-env.sh [atguigu@hadoop102 hadoop]$ vi yarn-env.sh export JAVA_HOME=/opt/module/jdk1.8.0_144 配置yarn-site.xml [atguigu@hadoop102 hadoop]$ vi yarn-site.xml 在该文件中增加如下配置 yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname hadoop103 (4)MapReduce配置文件 配置mapred-env.sh [atguigu@hadoop102 hadoop]$ vi mapred-env.sh export JAVA_HOME=/opt/module/jdk1.8.0_144 配置mapred-site.xml [atguigu@hadoop102 hadoop]$ cp mapred-site.xml.template mapred-site.xml

[atguigu@hadoop102 hadoop]$ vi mapred-site.xml
在该文件中增加如下配置

mapreduce.framework.name yarn 3.在集群上分发配置好的Hadoop配置文件 [atguigu@hadoop102 hadoop]$ xsync /opt/module/hadoop-2.7.2/ 4.查看文件分发情况 [atguigu@hadoop103 hadoop]$ cat /opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml 4.3.4 集群单点启动 (1)如果集群是第一次启动,需要格式化NameNode [atguigu@hadoop102 hadoop-2.7.2]$ hadoop namenode -format (2)在hadoop102上启动NameNode [atguigu@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start namenode [atguigu@hadoop102 hadoop-2.7.2]$ jps 3461 NameNode (3)在hadoop102、hadoop103以及hadoop104上分别启动DataNode [atguigu@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start datanode [atguigu@hadoop102 hadoop-2.7.2]$ jps 3461 NameNode 3608 Jps 3561 DataNode [atguigu@hadoop103 hadoop-2.7.2]$ hadoop-daemon.sh start datanode [atguigu@hadoop103 hadoop-2.7.2]$ jps 3190 DataNode 3279 Jps [atguigu@hadoop104 hadoop-2.7.2]$ hadoop-daemon.sh start datanode [atguigu@hadoop104 hadoop-2.7.2]$ jps 3237 Jps 3163 DataNode (4)思考:每次都一个一个节点启动,如果节点数增加到1000个怎么办? 早上来了开始一个一个节点启动,到晚上下班刚好完成,下班? 4.3.5 SSH无密登录配置 1. 配置ssh (1)基本语法 ssh另一台电脑的ip地址 (2)ssh连接时出现Host key verification failed的解决方法 [atguigu@hadoop102 opt] $ ssh 192.168.1.103 The authenticity of host '192.168.1.103 (192.168.1.103)' can't be established. RSA key fingerprint is cf:1e:de:d7:d0:4c:2d:98:60:b4:fd:ae:b1:2d:ad:06. Are you sure you want to continue connecting (yes/no)? Host key verification failed. (3)解决方案如下:直接输入yes 2. 无密钥配置 (1)免密登录原理,如图2-40所示 图2-40 免密登陆原理 (2)生成公钥和私钥: [atguigu@hadoop102 .ssh]$ ssh-keygen -t rsa 然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥) (3)将公钥拷贝到要免密登录的目标机器上 [atguigu@hadoop102 .ssh]$ ssh-copy-id hadoop102 [atguigu@hadoop102 .ssh]$ ssh-copy-id hadoop103 [atguigu@hadoop102 .ssh]$ ssh-copy-id hadoop104 注意: 还需要在hadoop102上采用root账号,配置一下无密登录到hadoop102、hadoop103、hadoop104; 还需要在hadoop103上采用atguigu账号配置一下无密登录到hadoop102、hadoop103、hadoop104服务器上。 3. .ssh文件夹下(~/.ssh)的文件功能解释 表2-4 known_hosts 记录ssh访问过计算机的公钥(public key) id_rsa 生成的私钥 id_rsa.pub 生成的公钥 authorized_keys 存放授权过得无密登录服务器公钥 4.3.6 群起集群 1. 配置slaves /opt/module/hadoop-2.7.2/etc/hadoop/slaves [atguigu@hadoop102 hadoop]$ vi slaves 在该文件中增加如下内容: hadoop102 hadoop103 hadoop104 注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行。 同步所有节点配置文件 [atguigu@hadoop102 hadoop]$ xsync slaves 2. 启动集群 (1)如果集群是第一次启动,需要格式化NameNode(注意格式化之前,一定要先停止上次启动的所有namenode和datanode进程,然后再删除data和log数据) [atguigu@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -format (2)启动HDFS [atguigu@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh [atguigu@hadoop102 hadoop-2.7.2]$ jps 4166 NameNode 4482 Jps 4263 DataNode [atguigu@hadoop103 hadoop-2.7.2]$ jps 3218 DataNode 3288 Jps

[atguigu@hadoop104 hadoop-2.7.2]$ jps
3221 DataNode
3283 SecondaryNameNode
3364 Jps
(3)启动YARN
[atguigu@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh
注意:NameNode和ResourceManger如果不是同一台机器,不能在NameNode上启动 YARN,应该在ResouceManager所在的机器上启动YARN。
(4)Web端查看SecondaryNameNode
(a)浏览器中输入:http://hadoop104:50090/status.html
(b)查看SecondaryNameNode信息,如图2-41所示。

图2-41 SecondaryNameNode的Web端
3. 集群基本测试
(1)上传文件到集群
上传小文件
[atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfs -mkdir -p /user/atguigu/input
[atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfs -put wcinput/wc.input /user/atguigu/input
上传大文件
[atguigu@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -put
/opt/software/hadoop-2.7.2.tar.gz /user/atguigu/input
(2)上传文件后查看文件存放在什么位置
(a)查看HDFS文件存储路径
[atguigu@hadoop102 subdir0]$ pwd
/opt/module/hadoop-2.7.2/data/tmp/dfs/data/current/BP-938951106-192.168.10.107-1495462844069/current/finalized/subdir0/subdir0
(b)查看HDFS在磁盘存储文件内容
[atguigu@hadoop102 subdir0]$ cat blk_1073741825
hadoop yarn
hadoop mapreduce
atguigu
atguigu
(3)拼接
-rw-rw-r–. 1 atguigu atguigu 134217728 5月 23 16:01 blk_1073741836
-rw-rw-r–. 1 atguigu atguigu 1048583 5月 23 16:01 blk_1073741836_1012.meta
-rw-rw-r–. 1 atguigu atguigu 63439959 5月 23 16:01 blk_1073741837
-rw-rw-r–. 1 atguigu atguigu 495635 5月 23 16:01 blk_1073741837_1013.meta
[atguigu@hadoop102 subdir0]$ cat blk_1073741836>>tmp.file
[atguigu@hadoop102 subdir0]$ cat blk_1073741837>>tmp.file
[atguigu@hadoop102 subdir0]$ tar -zxvf tmp.file
(4)下载
[atguigu@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -get
/user/atguigu/input/hadoop-2.7.2.tar.gz ./
4.3.7 集群启动/停止方式总结

  1. 各个服务组件逐一启动/停止
    (1)分别启动/停止HDFS组件
    hadoop-daemon.sh start / stop namenode / datanode / secondarynamenode
    (2)启动/停止YARN
    yarn-daemon.sh start / stop resourcemanager / nodemanager
  2. 各个模块分开启动/停止(配置ssh是前提)常用
    (1)整体启动/停止HDFS
    start-dfs.sh / stop-dfs.sh
    (2)整体启动/停止YARN
    start-yarn.sh / stop-yarn.sh
    4.3.8 集群时间同步
    时间同步的方式:找一个机器,作为时间服务器,所有的机器与这台集群时间进行定时的同步,比如,每隔十分钟,同步一次时间。

配置时间同步具体实操:

  1. 时间服务器配置(必须root用户)
    (1)检查ntp是否安装
    [root@hadoop102 桌面]# rpm -qa|grep ntp
    ntp-4.2.6p5-10.el6.centos.x86_64
    fontpackages-filesystem-1.41-1.1.el6.noarch
    ntpdate-4.2.6p5-10.el6.centos.x86_64
    (2)修改ntp配置文件
    [root@hadoop102 桌面]# vi /etc/ntp.conf
    修改内容如下
    a)修改1(授权192.168.1.0-192.168.1.255网段上的所有机器可以从这台机器上查询和同步时间)
    #restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap为
    restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap
    b)修改2(集群在局域网中,不使用其他互联网上的时间)
    server 0.centos.pool.ntp.org iburst
    server 1.centos.pool.ntp.org iburst
    server 2.centos.pool.ntp.org iburst
    server 3.centos.pool.ntp.org iburst为
    #server 0.centos.pool.ntp.org iburst
    #server 1.centos.pool.ntp.org iburst
    #server 2.centos.pool.ntp.org iburst
    #server 3.centos.pool.ntp.org iburst
    c)添加3(当该节点丢失网络连接,依然可以采用本地时间作为时间服务器为集群中的其他节点提供时间同步)
    server 127.127.1.0
    fudge 127.127.1.0 stratum 10
    (3)修改/etc/sysconfig/ntpd 文件
    [root@hadoop102 桌面]# vim /etc/sysconfig/ntpd
    增加内容如下(让硬件时间与系统时间一起同步)
    SYNC_HWCLOCK=yes
    (4)重新启动ntpd服务
    [root@hadoop102 桌面]# service ntpd status
    ntpd 已停
    [root@hadoop102 桌面]# service ntpd start
    正在启动 ntpd: [确定]
    (5)设置ntpd服务开机启动
    [root@hadoop102 桌面]# chkconfig ntpd on
  2. 其他机器配置(必须root用户)
    (1)在其他机器配置10分钟与时间服务器同步一次
    [root@hadoop103桌面]# crontab -e
    编写定时任务如下:
    */10 * * * * /usr/sbin/ntpdate hadoop102
    (2)修改任意机器时间
    [root@hadoop103桌面]# date -s “2017-9-11 11:11:11”
    (3)十分钟后查看机器是否与时间服务器同步
    [root@hadoop103桌面]# date
    说明:测试的时候可以将10分钟调整为1分钟,节省时间。
    第5章 Hadoop编译源码(面试重点)
    5.1 前期准备工作
  3. CentOS联网
    配置CentOS能连接外网。Linux虚拟机ping www.baidu.com 是畅通的
    注意:采用root角色编译,减少文件夹权限出现问题
  4. jar包准备(hadoop源码、JDK8、maven、ant 、protobuf)
    (1)hadoop-2.7.2-src.tar.gz
    (2)jdk-8u144-linux-x64.tar.gz
    (3)apache-ant-1.9.9-bin.tar.gz(build工具,打包用的)
    (4)apache-maven-3.0.5-bin.tar.gz
    (5)protobuf-2.5.0.tar.gz(序列化的框架)
    5.2 jar包安装
    注意:所有操作必须在root用户下完成
  5. JDK解压、配置环境变量 JAVA_HOME和PATH,验证java-version(如下都需要验证是否配置成功)
    [root@hadoop101 software] # tar -zxf jdk-8u144-linux-x64.tar.gz -C /opt/module/

[root@hadoop101 software]# vi /etc/profile
#JAVA_HOME:
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH= P A T H : PATH: PATH:JAVA_HOME/bin

[root@hadoop101 software]#source /etc/profile
验证命令:java -version
2. Maven解压、配置 MAVEN_HOME和PATH
[root@hadoop101 software]# tar -zxvf apache-maven-3.0.5-bin.tar.gz -C /opt/module/

[root@hadoop101 apache-maven-3.0.5]# vi conf/settings.xml

nexus-aliyun central Nexus aliyun http://maven.aliyun.com/nexus/content/groups/public

[root@hadoop101 apache-maven-3.0.5]# vi /etc/profile
#MAVEN_HOME
export MAVEN_HOME=/opt/module/apache-maven-3.0.5
export PATH= P A T H : PATH: PATH:MAVEN_HOME/bin

[root@hadoop101 software]#source /etc/profile
验证命令:mvn -version
3. ant解压、配置 ANT _HOME和PATH
[root@hadoop101 software]# tar -zxvf apache-ant-1.9.9-bin.tar.gz -C /opt/module/

[root@hadoop101 apache-ant-1.9.9]# vi /etc/profile
#ANT_HOME
export ANT_HOME=/opt/module/apache-ant-1.9.9
export PATH= P A T H : PATH: PATH:ANT_HOME/bin

[root@hadoop101 software]#source /etc/profile
验证命令:ant -version
4. 安装 glibc-headers 和 g++ 命令如下
[root@hadoop101 apache-ant-1.9.9]# yum install glibc-headers
[root@hadoop101 apache-ant-1.9.9]# yum install gcc-c++
5. 安装make和cmake
[root@hadoop101 apache-ant-1.9.9]# yum install make
[root@hadoop101 apache-ant-1.9.9]# yum install cmake
6. 解压protobuf ,进入到解压后protobuf主目录,/opt/module/protobuf-2.5.0,然后相继执行命令
[root@hadoop101 software]# tar -zxvf protobuf-2.5.0.tar.gz -C /opt/module/
[root@hadoop101 opt]# cd /opt/module/protobuf-2.5.0/

[root@hadoop101 protobuf-2.5.0]#./configure
[root@hadoop101 protobuf-2.5.0]# make
[root@hadoop101 protobuf-2.5.0]# make check
[root@hadoop101 protobuf-2.5.0]# make install
[root@hadoop101 protobuf-2.5.0]# ldconfig

[root@hadoop101 hadoop-dist]# vi /etc/profile
#LD_LIBRARY_PATH
export LD_LIBRARY_PATH=/opt/module/protobuf-2.5.0
export PATH= P A T H : PATH: PATH:LD_LIBRARY_PATH

[root@hadoop101 software]#source /etc/profile
验证命令:protoc --version
7. 安装openssl库
[root@hadoop101 software]#yum install openssl-devel
8. 安装 ncurses-devel库
[root@hadoop101 software]#yum install ncurses-devel
到此,编译工具安装基本完成。
5.3 编译源码

  1. 解压源码到/opt/目录
    [root@hadoop101 software]# tar -zxvf hadoop-2.7.2-src.tar.gz -C /opt/
  2. 进入到hadoop源码主目录
    [root@hadoop101 hadoop-2.7.2-src]# pwd
    /opt/hadoop-2.7.2-src
  3. 通过maven执行编译命令
    [root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,native -DskipTests -Dtar
    等待时间30分钟左右,最终成功是全部SUCCESS,如图2-42所示。

图2-42 编译源码
4. 成功的64位hadoop包在/opt/hadoop-2.7.2-src/hadoop-dist/target下
[root@hadoop101 target]# pwd
/opt/hadoop-2.7.2-src/hadoop-dist/target
5. 编译源码过程中常见的问题及解决方案
(1)MAVEN install时候JVM内存溢出
处理方式:在环境配置文件和maven的执行文件均可调整MAVEN_OPT的heap大小。(详情查阅MAVEN 编译 JVM调优问题,如:http://outofmemory.cn/code-snippet/12652/maven-outofmemoryerror-method)
(2)编译期间maven报错。可能网络阻塞问题导致依赖库下载不完整导致,多次执行命令(一次通过比较难):
[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,nativeN -DskipTests -Dtar
(3)报ant、protobuf等错误,插件下载未完整或者插件版本问题,最开始链接有较多特殊情况,同时推荐
2.7.0版本的问题汇总帖子 http://www.tuicool.com/articles/IBn63qf
第6章 常见错误及解决方案
1)防火墙没关闭、或者没有启动YARN
INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032
2)主机名称配置错误
3)IP地址配置错误
4)ssh没有配置好
5)root用户和atguigu两个用户启动集群不统一
6)配置文件修改不细心
7)未编译源码
Unable to load native-hadoop library for your platform… using builtin-java classes where applicable
17/05/22 15:38:58 INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032
8)不识别主机名称
java.net.UnknownHostException: hadoop102: hadoop102
at java.net.InetAddress.getLocalHost(InetAddress.java:1475)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:146)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1290)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1287)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
解决办法:
(1)在/etc/hosts文件中添加192.168.1.102 hadoop102
(2)主机名称不要起hadoop hadoop000等特殊名称
9)DataNode和NameNode进程同时只能工作一个。

10)执行命令不生效,粘贴word中命令时,遇到-和长–没区分开。导致命令失效
解决办法:尽量不要粘贴word中代码。
11)jps发现进程已经没有,但是重新启动集群,提示进程已经开启。原因是在linux的根目录下/tmp目录中存在启动的进程临时文件,将集群相关进程删除掉,再重新启动集群。
12)jps不生效。
原因:全局变量hadoop java没有生效。解决办法:需要source /etc/profile文件。
13)8088端口连接不上
[atguigu@hadoop102 桌面]$ cat /etc/hosts
注释掉如下代码
#127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
#::1 hadoop102
尚硅谷大数据技术之Hadoop(HDFS)
(作者:尚硅谷大数据研发部)

版本:V2.0
第1章 HDFS概述
1.1 HDFS产出背景及定义

1.2 HDFS优缺点

1.3 HDFS组成架构

1.4 HDFS文件块大小(面试重点)

第2章 HDFS的Shell操作(开发重点)
1.基本语法
bin/hadoop fs 具体命令 OR bin/hdfs dfs 具体命令
dfs是fs的实现类。
2.命令大全
[atguigu@hadoop102 hadoop-2.7.2]$ bin/hadoop fs

[-appendToFile … ]
[-cat [-ignoreCrc] …]
[-checksum …]
[-chgrp [-R] GROUP PATH…]
[-chmod [-R] <MODE[,MODE]… | OCTALMODE> PATH…]
[-chown [-R] [OWNER][:[GROUP]] PATH…]
[-copyFromLocal [-f] [-p] … ]
[-copyToLocal [-p] [-ignoreCrc] [-crc] … ]
[-count [-q] …]
[-cp [-f] [-p] … ]
[-createSnapshot []]
[-deleteSnapshot ]
[-df [-h] [ …]]
[-du [-s] [-h] …]
[-expunge]
[-get [-p] [-ignoreCrc] [-crc] … ]
[-getfacl [-R] ]
[-getmerge [-nl] ]
[-help [cmd …]]
[-ls [-d] [-h] [-R] [ …]]
[-mkdir [-p] …]
[-moveFromLocal … ]
[-moveToLocal ]
[-mv … ]
[-put [-f] [-p] … ]
[-renameSnapshot ]
[-rm [-f] [-r|-R] [-skipTrash] …]
[-rmdir [–ignore-fail-on-non-empty]

…]
[-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} ]|[–set <acl_spec> ]]
[-setrep [-R] [-w] …]
[-stat [format] …]
[-tail [-f] ]
[-test -[defsz] ]
[-text [-ignoreCrc] …]
[-touchz …]
[-usage [cmd …]]
3.常用命令实操
(0)启动Hadoop集群(方便后续的测试)
[atguigu@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh
[atguigu@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh
(1)-help:输出这个命令参数
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -help rm
(2)-ls: 显示目录信息
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -ls /
(3)-mkdir:在HDFS上创建目录
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -mkdir -p /sanguo/shuguo
(4)-moveFromLocal:从本地剪切粘贴到HDFS
[atguigu@hadoop102 hadoop-2.7.2]$ touch kongming.txt
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -moveFromLocal ./kongming.txt /sanguo/shuguo
(5)-appendToFile:追加一个文件到已经存在的文件末尾
[atguigu@hadoop102 hadoop-2.7.2]$ touch liubei.txt
[atguigu@hadoop102 hadoop-2.7.2]$ vi liubei.txt
输入
san gu mao lu
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -appendToFile liubei.txt /sanguo/shuguo/kongming.txt
(6)-cat:显示文件内容
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -cat /sanguo/shuguo/kongming.txt
(7)-chgrp 、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -chmod 666 /sanguo/shuguo/kongming.txt
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -chown atguigu:atguigu /sanguo/shuguo/kongming.txt
(8)-copyFromLocal:从本地文件系统中拷贝文件到HDFS路径去
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -copyFromLocal README.txt /
(9)-copyToLocal:从HDFS拷贝到本地
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -copyToLocal /sanguo/shuguo/kongming.txt ./
(10)-cp :从HDFS的一个路径拷贝到HDFS的另一个路径
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -cp /sanguo/shuguo/kongming.txt /zhuge.txt
(11)-mv:在HDFS目录中移动文件
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -mv /zhuge.txt /sanguo/shuguo/
(12)-get:等同于copyToLocal,就是从HDFS下载文件到本地
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -get /sanguo/shuguo/kongming.txt ./
(13)-getmerge:合并下载多个文件,比如HDFS的目录 /user/atguigu/test下有多个文件:log.1, log.2,log.3,…
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -getmerge /user/atguigu/test/* ./zaiyiqi.txt
(14)-put:等同于copyFromLocal
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -put ./zaiyiqi.txt /user/atguigu/test/
(15)-tail:显示一个文件的末尾
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -tail /sanguo/shuguo/kongming.txt
(16)-rm:删除文件或文件夹
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -rm /user/atguigu/test/jinlian2.txt
(17)-rmdir:删除空目录
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -mkdir /test
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -rmdir /test
(18)-du统计文件夹的大小信息
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -du -s -h /user/atguigu/test
2.7 K /user/atguigu/test

[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -du -h /user/atguigu/test
1.3 K /user/atguigu/test/README.txt
15 /user/atguigu/test/jinlian.txt
1.4 K /user/atguigu/test/zaiyiqi.txt
(19)-setrep:设置HDFS中文件的副本数量
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -setrep 10 /sanguo/shuguo/kongming.txt

图3-3 HDFS副本数量
这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10。
第3章 HDFS客户端操作(开发重点)
3.1 HDFS客户端环境准备
1.根据自己电脑的操作系统拷贝对应的编译后的hadoop jar包到非中文路径(例如:D:\Develop\hadoop-2.7.2),如图3-4所示。

图3-4 编译后的hadoop jar包
2.配置HADOOP_HOME环境变量,如图3-5所示。

图3-5 配置HADOOP_HOME环境变量
3. 配置Path环境变量,如图3-6所示。

图3-6 配置Path环境变量
4.创建一个Maven工程HdfsClientDemo
5.导入相应的依赖坐标+日志添加


junit
junit
RELEASE


org.apache.logging.log4j
log4j-core
2.8.2


org.apache.hadoop
hadoop-common
2.7.2


org.apache.hadoop
hadoop-client
2.7.2


org.apache.hadoop
hadoop-hdfs
2.7.2


jdk.tools
jdk.tools
1.8
system
${JAVA_HOME}/lib/tools.jar


注意:如果Eclipse/Idea打印不出日志,在控制台上只显示
1.log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.Shell).
2.log4j:WARN Please initialize the log4j system properly.
3.log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
需要在项目的src/main/resources目录下,新建一个文件,命名为“log4j.properties”,在文件中填入
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
6.创建包名:com.atguigu.hdfs
7.创建HdfsClient类
public class HdfsClient{
@Test
public void testMkdirs() throws IOException, InterruptedException, URISyntaxException{

	// 1 获取文件系统
	Configuration configuration = new Configuration();
	// 配置在集群上运行
	// configuration.set("fs.defaultFS", "hdfs://hadoop102:9000");
	// FileSystem fs = FileSystem.get(configuration);

	FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
	
	// 2 创建目录
	fs.mkdirs(new Path("/1108/daxian/banzhang"));
	
	// 3 关闭资源
	fs.close();
}

}
8.执行程序
运行时需要配置用户名称,如图3-7所示

图3-7 配置用户名称
客户端去操作HDFS时,是有一个用户身份的。默认情况下,HDFS客户端API会从JVM中获取一个参数来作为自己的用户身份:-DHADOOP_USER_NAME=atguigu,atguigu为用户名称。
3.2 HDFS的API操作
3.2.1 HDFS文件上传(测试参数优先级)
1.编写源代码
@Test
public void testCopyFromLocalFile() throws IOException, InterruptedException, URISyntaxException {

	// 1 获取文件系统
	Configuration configuration = new Configuration();
	configuration.set("dfs.replication", "2");
	FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");

	// 2 上传文件
	fs.copyFromLocalFile(new Path("e:/banzhang.txt"), new Path("/banzhang.txt"));

	// 3 关闭资源
	fs.close();

	System.out.println("over");

}
2.将hdfs-site.xml拷贝到项目的根目录下

<?xml version="1.0" encoding="UTF-8"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> dfs.replication 1 3.参数优先级 参数优先级排序:(1)客户端代码中设置的值 >(2)ClassPath下的用户自定义配置文件 >(3)然后是服务器的默认配置 3.2.2 HDFS文件下载 @Test public void testCopyToLocalFile() throws IOException, InterruptedException, URISyntaxException{
	// 1 获取文件系统
	Configuration configuration = new Configuration();
	FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
	
	// 2 执行下载操作
	// boolean delSrc 指是否将原文件删除
	// Path src 指要下载的文件路径
	// Path dst 指将文件下载到的路径
	// boolean useRawLocalFileSystem 是否开启文件校验
	fs.copyToLocalFile(false, new Path("/banzhang.txt"), new Path("e:/banhua.txt"), true);
	
	// 3 关闭资源
	fs.close();

}
3.2.3 HDFS文件夹删除
@Test
public void testDelete() throws IOException, InterruptedException, URISyntaxException{

// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
	
// 2 执行删除
fs.delete(new Path("/0508/"), true);
	
// 3 关闭资源
fs.close();

}
3.2.4 HDFS文件名更改
@Test
public void testRename() throws IOException, InterruptedException, URISyntaxException{

// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu"); 
	
// 2 修改文件名称
fs.rename(new Path("/banzhang.txt"), new Path("/banhua.txt"));
	
// 3 关闭资源
fs.close();

}
3.2.5 HDFS文件详情查看
查看文件名称、权限、长度、块信息
@Test
public void testListFiles() throws IOException, InterruptedException, URISyntaxException{

// 1获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu"); 
	
// 2 获取文件详情
RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"), true);
	
while(listFiles.hasNext()){
	LocatedFileStatus status = listFiles.next();
		
	// 输出详情
	// 文件名称
	System.out.println(status.getPath().getName());
	// 长度
	System.out.println(status.getLen());
	// 权限
	System.out.println(status.getPermission());
	// 分组
	System.out.println(status.getGroup());
		
	// 获取存储的块信息
	BlockLocation[] blockLocations = status.getBlockLocations();
		
	for (BlockLocation blockLocation : blockLocations) {
			
		// 获取块存储的主机节点
		String[] hosts = blockLocation.getHosts();
			
		for (String host : hosts) {
			System.out.println(host);
		}
	}
		
	System.out.println("-----------班长的分割线----------");
}

// 3 关闭资源
fs.close();
}
3.2.6 HDFS文件和文件夹判断
@Test
public void testListStatus() throws IOException, InterruptedException, URISyntaxException{

// 1 获取文件配置信息
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
	
// 2 判断是文件还是文件夹
FileStatus[] listStatus = fs.listStatus(new Path("/"));
	
for (FileStatus fileStatus : listStatus) {
	
	// 如果是文件
	if (fileStatus.isFile()) {
			System.out.println("f:"+fileStatus.getPath().getName());
		}else {
			System.out.println("d:"+fileStatus.getPath().getName());
		}
	}
	
// 3 关闭资源
fs.close();

}
3.3 HDFS的I/O流操作
上面我们学的API操作HDFS系统都是框架封装好的。那么如果我们想自己实现上述API的操作该怎么实现呢?
我们可以采用IO流的方式实现数据的上传和下载。
3.3.1 HDFS文件上传
1.需求:把本地e盘上的banhua.txt文件上传到HDFS根目录
2.编写代码
@Test
public void putFileToHDFS() throws IOException, InterruptedException, URISyntaxException {

// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");

// 2 创建输入流
FileInputStream fis = new FileInputStream(new File("e:/banhua.txt"));

// 3 获取输出流
FSDataOutputStream fos = fs.create(new Path("/banhua.txt"));

// 4 流对拷
IOUtils.copyBytes(fis, fos, configuration);

// 5 关闭资源
IOUtils.closeStream(fos);
IOUtils.closeStream(fis);
fs.close();

}
3.3.2 HDFS文件下载
1.需求:从HDFS上下载banhua.txt文件到本地e盘上
2.编写代码
// 文件下载
@Test
public void getFileFromHDFS() throws IOException, InterruptedException, URISyntaxException{

// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
	
// 2 获取输入流
FSDataInputStream fis = fs.open(new Path("/banhua.txt"));
	
// 3 获取输出流
FileOutputStream fos = new FileOutputStream(new File("e:/banhua.txt"));
	
// 4 流的对拷
IOUtils.copyBytes(fis, fos, configuration);
	
// 5 关闭资源
IOUtils.closeStream(fos);
IOUtils.closeStream(fis);
fs.close();

}
3.3.3 定位文件读取
1.需求:分块读取HDFS上的大文件,比如根目录下的/hadoop-2.7.2.tar.gz
2.编写代码
(1)下载第一块
@Test
public void readFileSeek1() throws IOException, InterruptedException, URISyntaxException{

// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
	
// 2 获取输入流
FSDataInputStream fis = fs.open(new Path("/hadoop-2.7.2.tar.gz"));
	
// 3 创建输出流
FileOutputStream fos = new FileOutputStream(new File("e:/hadoop-2.7.2.tar.gz.part1"));
	
// 4 流的拷贝
byte[] buf = new byte[1024];
	
for(int i =0 ; i < 1024 * 128; i++){
	fis.read(buf);
	fos.write(buf);
}
	
// 5关闭资源
IOUtils.closeStream(fis);
IOUtils.closeStream(fos);

fs.close();
}
(2)下载第二块
@Test
public void readFileSeek2() throws IOException, InterruptedException, URISyntaxException{

// 1 获取文件系统
Configuration configuration = new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "atguigu");
	
// 2 打开输入流
FSDataInputStream fis = fs.open(new Path("/hadoop-2.7.2.tar.gz"));
	
// 3 定位输入数据位置
fis.seek(1024*1024*128);
	
// 4 创建输出流
FileOutputStream fos = new FileOutputStream(new File("e:/hadoop-2.7.2.tar.gz.part2"));
	
// 5 流的对拷
IOUtils.copyBytes(fis, fos, configuration);
	
// 6 关闭资源
IOUtils.closeStream(fis);
IOUtils.closeStream(fos);

}
(3)合并文件
在Window命令窗口中进入到目录E:\,然后执行如下命令,对数据进行合并
type hadoop-2.7.2.tar.gz.part2 >> hadoop-2.7.2.tar.gz.part1
合并完成后,将hadoop-2.7.2.tar.gz.part1重新命名为hadoop-2.7.2.tar.gz。解压发现该tar包非常完整。
第4章 HDFS的数据流(面试重点)
4.1 HDFS写数据流程
4.1.1 剖析文件写入
HDFS写数据流程,如图3-8所示。

图3-8 配置用户名称
1)客户端通过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。
2)NameNode返回是否可以上传。
3)客户端请求第一个 Block上传到哪几个DataNode服务器上。
4)NameNode返回3个DataNode节点,分别为dn1、dn2、dn3。
5)客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。
6)dn1、dn2、dn3逐级应答客户端。
7)客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个Packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答。
8)当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器。(重复执行3-7步)。
4.1.2 网络拓扑-节点距离计算
在HDFS写数据的过程中,NameNode会选择距离待上传数据最近距离的DataNode接收数据。那么这个最近距离怎么计算呢?
节点距离:两个节点到达最近的共同祖先的距离总和。
图3-9 网络拓扑概念
例如,假设有数据中心d1机架r1中的节点n1。该节点可以表示为/d1/r1/n1。利用这种标记,这里给出四种距离描述,如图3-9所示。
大家算一算每两个节点之间的距离,如图3-10所示。

图3-10 网络拓扑
4.1.3 机架感知(副本存储节点选择)

  1. 官方ip地址
    机架感知说明
    http://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-hdfs/HdfsDesign.html#Data_Replication
    For the common case, when the replication factor is three, HDFS’s placement policy is to put one replica on one node in the local rack, another on a different node in the local rack, and the last on a different node in a different rack.
  2. Hadoop2.7.2副本节点选择

4.2 HDFS读数据流程
HDFS的读数据流程,如图3-13所示。

图3-13 HDFS读数据流程
1)客户端通过Distributed FileSystem向NameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNode地址。
2)挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据。
3)DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以Packet为单位来做校验)。
4)客户端以Packet为单位接收,先在本地缓存,然后写入目标文件。
第5章 NameNode和SecondaryNameNode(面试开发重点)
5.1 NN和2NN工作机制
思考:NameNode中的元数据是存储在哪里的?
首先,我们做个假设,如果存储在NameNode节点的磁盘中,因为经常需要进行随机访问,还有响应客户请求,必然是效率过低。因此,元数据需要存放在内存中。但如果只存在内存中,一旦断电,元数据丢失,整个集群就无法工作了。因此产生在磁盘中备份元数据的FsImage。
这样又会带来新的问题,当在内存中的元数据更新时,如果同时更新FsImage,就会导致效率过低,但如果不更新,就会发生一致性问题,一旦NameNode节点断电,就会产生数据丢失。因此,引入Edits文件(只进行追加操作,效率很高)。每当元数据有更新或者添加元数据时,修改内存中的元数据并追加到Edits中。这样,一旦NameNode节点断电,可以通过FsImage和Edits的合并,合成元数据。
但是,如果长时间添加数据到Edits中,会导致该文件数据过大,效率降低,而且一旦断电,恢复元数据需要的时间过长。因此,需要定期进行FsImage和Edits的合并,如果这个操作由NameNode节点完成,又会效率过低。因此,引入一个新的节点SecondaryNamenode,专门用于FsImage和Edits的合并。
NN和2NN工作机制,如图3-14所示。
图3-14 NN和2NN工作机制

  1. 第一阶段:NameNode启动
    (1)第一次启动NameNode格式化后,创建Fsimage和Edits文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存。
    (2)客户端对元数据进行增删改的请求。
    (3)NameNode记录操作日志,更新滚动日志。
    (4)NameNode在内存中对数据进行增删改。

  2. 第二阶段:Secondary NameNode工作
    (1)Secondary NameNode询问NameNode是否需要CheckPoint。直接带回NameNode是否检查结果。
    (2)Secondary NameNode请求执行CheckPoint。
    (3)NameNode滚动正在写的Edits日志。
    (4)将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode。
    (5)Secondary NameNode加载编辑日志和镜像文件到内存,并合并。
    (6)生成新的镜像文件fsimage.chkpoint。
    (7)拷贝fsimage.chkpoint到NameNode。
    (8)NameNode将fsimage.chkpoint重新命名成fsimage。
    NN和2NN工作机制详解:
    Fsimage:NameNode内存中元数据序列化后形成的文件。
    Edits:记录客户端更新元数据信息的每一步操作(可通过Edits运算出元数据)。
    NameNode启动时,先滚动Edits并生成一个空的edits.inprogress,然后加载Edits和Fsimage到内存中,此时NameNode内存就持有最新的元数据信息。Client开始对NameNode发送元数据的增删改的请求,这些请求的操作首先会被记录到edits.inprogress中(查询元数据的操作不会被记录在Edits中,因为查询操作不会更改元数据信息),如果此时NameNode挂掉,重启后会从Edits中读取元数据的信息。然后,NameNode会在内存中执行元数据的增删改的操作。
    由于Edits中记录的操作会越来越多,Edits文件会越来越大,导致NameNode在启动加载Edits时会很慢,所以需要对Edits和Fsimage进行合并(所谓合并,就是将Edits和Fsimage加载到内存中,照着Edits中的操作一步步执行,最终形成新的Fsimage)。SecondaryNameNode的作用就是帮助NameNode进行Edits和Fsimage的合并工作。
    SecondaryNameNode首先会询问NameNode是否需要CheckPoint(触发CheckPoint需要满足两个条件中的任意一个,定时时间到和Edits中数据写满了)。直接带回NameNode是否检查结果。SecondaryNameNode执行CheckPoint操作,首先会让NameNode滚动Edits并生成一个空的edits.inprogress,滚动Edits的目的是给Edits打个标记,以后所有新的操作都写入edits.inprogress,其他未合并的Edits和Fsimage会拷贝到SecondaryNameNode的本地,然后将拷贝的Edits和Fsimage加载到内存中进行合并,生成fsimage.chkpoint,然后将fsimage.chkpoint拷贝给NameNode,重命名为Fsimage后替换掉原来的Fsimage。NameNode在启动时就只需要加载之前未合并的Edits和Fsimage即可,因为合并过的Edits中的元数据信息已经被记录在Fsimage中。
    5.2 Fsimage和Edits解析

  3. 概念

  4. oiv查看Fsimage文件
    (1)查看oiv和oev命令
    [atguigu@hadoop102 current]$ hdfs
    oiv apply the offline fsimage viewer to an fsimage
    oev apply the offline edits viewer to an edits file
    (2)基本语法
    hdfs oiv -p 文件类型 -i镜像文件 -o 转换后文件输出路径
    (3)案例实操
    [atguigu@hadoop102 current]$ pwd
    /opt/module/hadoop-2.7.2/data/tmp/dfs/name/current

[atguigu@hadoop102 current]$ hdfs oiv -p XML -i fsimage_0000000000000000025 -o /opt/module/hadoop-2.7.2/fsimage.xml

[atguigu@hadoop102 current]$ cat /opt/module/hadoop-2.7.2/fsimage.xml
将显示的xml文件内容拷贝到Eclipse中创建的xml文件中,并格式化。部分显示结果如下。

16386
DIRECTORY
user
1512722284477
atguigu:supergroup:rwxr-xr-x
-1
-1


16387
DIRECTORY
atguigu
1512790549080
atguigu:supergroup:rwxr-xr-x
-1
-1


16389
FILE
wc.input
3
1512722322219
1512722321610
134217728
atguigu:supergroup:rw-r–r--


1073741825
1001
59



思考:可以看出,Fsimage中没有记录块所对应DataNode,为什么?
在集群启动后,要求DataNode上报数据块信息,并间隔一段时间后再次上报。
3. oev查看Edits文件
(1)基本语法
hdfs oev -p 文件类型 -i编辑日志 -o 转换后文件输出路径
(2)案例实操
[atguigu@hadoop102 current]$ hdfs oev -p XML -i edits_0000000000000000012-0000000000000000013 -o /opt/module/hadoop-2.7.2/edits.xml

[atguigu@hadoop102 current]$ cat /opt/module/hadoop-2.7.2/edits.xml
将显示的xml文件内容拷贝到Eclipse中创建的xml文件中,并格式化。显示结果如下。

<?xml version="1.0" encoding="UTF-8"?> -63 OP_START_LOG_SEGMENT 129 OP_ADD 130 0 16407 /hello7.txt 2 1512943607866 1512943607866 134217728 DFSClient_NONMAPREDUCE_-1544295051_1 192.168.1.5 true atguigu supergroup 420 908eafd4-9aec-4288-96f1-e8011d181561 0 OP_ALLOCATE_BLOCK_ID 131 1073741839 OP_SET_GENSTAMP_V2 132 1016 OP_ADD_BLOCK 133 /hello7.txt 1073741839 0 1016 -2 OP_CLOSE 134 0 0 /hello7.txt 2 1512943608761 1512943607866 134217728 false 1073741839 25 1016 atguigu supergroup 420 思考:NameNode如何确定下次开机启动的时候合并哪些Edits? 5.3 CheckPoint时间设置 (1)通常情况下,SecondaryNameNode每隔一小时执行一次。 [hdfs-default.xml] dfs.namenode.checkpoint.period 3600 (2)一分钟检查一次操作次数,3当操作次数达到1百万时,SecondaryNameNode执行一次。 dfs.namenode.checkpoint.txns 1000000 操作动作次数 dfs.namenode.checkpoint.check.period 60 1分钟检查一次操作次数 5.4 NameNode故障处理 NameNode故障后,可以采用如下两种方法恢复数据。 方法一:将SecondaryNameNode中数据拷贝到NameNode存储数据的目录; 1. kill -9 NameNode进程 2. 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name) [atguigu@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/* 3. 拷贝SecondaryNameNode中数据到原NameNode存储数据目录 [atguigu@hadoop102 dfs]$ scp -r atguigu@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/* ./name/ 4. 重新启动NameNode [atguigu@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode 方法二:使用-importCheckpoint选项启动NameNode守护进程,从而将SecondaryNameNode中数据拷贝到NameNode目录中。 1. 修改hdfs-site.xml中的 dfs.namenode.checkpoint.period 120 dfs.namenode.name.dir /opt/module/hadoop-2.7.2/data/tmp/dfs/name 2. kill -9 NameNode进程 3. 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name) [atguigu@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/* 4. 如果SecondaryNameNode不和NameNode在一个主机节点上,需要将SecondaryNameNode存储数据的目录拷贝到NameNode存储数据的平级目录,并删除in_use.lock文件 [atguigu@hadoop102 dfs]$ scp -r atguigu@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary ./

[atguigu@hadoop102 namesecondary]$ rm -rf in_use.lock

[atguigu@hadoop102 dfs]$ pwd
/opt/module/hadoop-2.7.2/data/tmp/dfs

[atguigu@hadoop102 dfs]$ ls
data name namesecondary
5. 导入检查点数据(等待一会ctrl+c结束掉)
[atguigu@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -importCheckpoint
6. 启动NameNode
[atguigu@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode
5.5 集群安全模式

  1. 概述

  2. 基本语法
    集群处于安全模式,不能执行重要操作(写操作)。集群启动完成后,自动退出安全模式。
    (1)bin/hdfs dfsadmin -safemode get (功能描述:查看安全模式状态)
    (2)bin/hdfs dfsadmin -safemode enter (功能描述:进入安全模式状态)
    (3)bin/hdfs dfsadmin -safemode leave (功能描述:离开安全模式状态)
    (4)bin/hdfs dfsadmin -safemode wait (功能描述:等待安全模式状态)

  3. 案例
    模拟等待安全模式
    (1)查看当前模式
    [atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfsadmin -safemode get
    Safe mode is OFF
    (2)先进入安全模式
    [atguigu@hadoop102 hadoop-2.7.2]$ bin/hdfs dfsadmin -safemode enter
    (3)创建并执行下面的脚本
    在/opt/module/hadoop-2.7.2路径上,编辑一个脚本safemode.sh
    [atguigu@hadoop102 hadoop-2.7.2]$ touch safemode.sh
    [atguigu@hadoop102 hadoop-2.7.2]$ vim safemode.sh

#!/bin/bash
hdfs dfsadmin -safemode wait
hdfs dfs -put /opt/module/hadoop-2.7.2/README.txt /
执行脚本
[atguigu@hadoop102 hadoop-2.7.2]$ chmod 777 safemode.sh

[atguigu@hadoop102 hadoop-2.7.2]$ ./safemode.sh
(4)再打开一个窗口,执行
[atguigu@hadoop102 hadoop-2.7.2]$ bin/hdfs dfsadmin -safemode leave
(5)观察
(a)再观察上一个窗口
Safe mode is OFF
(b)HDFS集群上已经有上传的数据了。
5.6 NameNode多目录配置

  1. NameNode的本地目录可以配置成多个,且每个目录存放内容相同,增加了可靠性
  2. 具体配置如下
    (1)在hdfs-site.xml文件中增加如下内容

    dfs.namenode.name.dir
    file:/// h a d o o p . t m p . d i r / d f s / n a m e 1 , f i l e : / / / {hadoop.tmp.dir}/dfs/name1,file:/// hadoop.tmp.dir/dfs/name1,file:///{hadoop.tmp.dir}/dfs/name2

    (2)停止集群,删除data和logs中所有数据。
    [atguigu@hadoop102 hadoop-2.7.2]$ rm -rf data/ logs/
    [atguigu@hadoop103 hadoop-2.7.2]$ rm -rf data/ logs/
    [atguigu@hadoop104 hadoop-2.7.2]$ rm -rf data/ logs/
    (3)格式化集群并启动。
    [atguigu@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode –format
    [atguigu@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh
    (4)查看结果
    [atguigu@hadoop102 dfs]$ ll
    总用量 12
    drwx------. 3 atguigu atguigu 4096 12月 11 08:03 data
    drwxrwxr-x. 3 atguigu atguigu 4096 12月 11 08:03 name1
    drwxrwxr-x. 3 atguigu atguigu 4096 12月 11 08:03 name2
    第6章 DataNode(面试开发重点)
    6.1 DataNode工作机制
    DataNode工作机制,如图3-15所示。

图3-15 DataNode工作机制
1)一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。
2)DataNode启动后向NameNode注册,通过后,周期性(1小时)的向NameNode上报所有的块信息。
3)心跳是每3秒一次,心跳返回结果带有NameNode给该DataNode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个DataNode的心跳,则认为该节点不可用。
4)集群运行中可以安全加入和退出一些机器。
6.2 数据完整性
思考:如果电脑磁盘里面存储的数据是控制高铁信号灯的红灯信号(1)和绿灯信号(0),但是存储该数据的磁盘坏了,一直显示是绿灯,是否很危险?同理DataNode节点上的数据损坏了,却没有发现,是否也很危险,那么如何解决呢?
如下是DataNode节点保证数据完整性的方法。
1)当DataNode读取Block的时候,它会计算CheckSum。
2)如果计算后的CheckSum,与Block创建时值不一样,说明Block已经损坏。
3)Client读取其他DataNode上的Block。
4)DataNode在其文件创建后周期验证CheckSum,如图3-16所示。

图3-16 校验和
6.3 掉线时限参数设置

需要注意的是hdfs-site.xml 配置文件中的heartbeat.recheck.interval的单位为毫秒,dfs.heartbeat.interval的单位为秒。
dfs.namenode.heartbeat.recheck-interval 300000 dfs.heartbeat.interval 3 6.4 服役新数据节点 0. 需求 随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。 1. 环境准备 (1)在hadoop104主机上再克隆一台hadoop105主机 (2)修改IP地址和主机名称 (3)删除原来HDFS文件系统留存的文件(/opt/module/hadoop-2.7.2/data和log) (4)source一下配置文件 [atguigu@hadoop105 hadoop-2.7.2]$ source /etc/profile 2. 服役新节点具体步骤 (1)直接启动DataNode,即可关联到集群 [atguigu@hadoop105 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start datanode [atguigu@hadoop105 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager

(2)在hadoop105上上传文件
[atguigu@hadoop105 hadoop-2.7.2]$ hadoop fs -put /opt/module/hadoop-2.7.2/LICENSE.txt /
(3)如果数据不均衡,可以用命令实现集群的再平衡
[atguigu@hadoop102 sbin]$ ./start-balancer.sh
starting balancer, logging to /opt/module/hadoop-2.7.2/logs/hadoop-atguigu-balancer-hadoop102.out
Time Stamp Iteration# Bytes Already Moved Bytes Left To Move Bytes Being Moved
6.5 退役旧数据节点
6.5.1 添加白名单
添加到白名单的主机节点,都允许访问NameNode,不在白名单的主机节点,都会被退出。
配置白名单的具体步骤如下:
(1)在NameNode的/opt/module/hadoop-2.7.2/etc/hadoop目录下创建dfs.hosts文件
[atguigu@hadoop102 hadoop]$ pwd
/opt/module/hadoop-2.7.2/etc/hadoop
[atguigu@hadoop102 hadoop]$ touch dfs.hosts
[atguigu@hadoop102 hadoop]$ vi dfs.hosts
添加如下主机名称(不添加hadoop105)
hadoop102
hadoop103
hadoop104
(2)在NameNode的hdfs-site.xml配置文件中增加dfs.hosts属性

dfs.hosts
/opt/module/hadoop-2.7.2/etc/hadoop/dfs.hosts

(3)配置文件分发
[atguigu@hadoop102 hadoop]$ xsync hdfs-site.xml
(4)刷新NameNode
[atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfsadmin -refreshNodes
Refresh nodes successful
(5)更新ResourceManager节点
[atguigu@hadoop102 hadoop-2.7.2]$ yarn rmadmin -refreshNodes
17/06/24 14:17:11 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.1.103:8033
(6)在web浏览器上查看

  1. 如果数据不均衡,可以用命令实现集群的再平衡
    [atguigu@hadoop102 sbin]$ ./start-balancer.sh
    starting balancer, logging to /opt/module/hadoop-2.7.2/logs/hadoop-atguigu-balancer-hadoop102.out
    Time Stamp Iteration# Bytes Already Moved Bytes Left To Move Bytes Being Moved
    6.5.2 黑名单退役
    在黑名单上面的主机都会被强制退出。
    1.在NameNode的/opt/module/hadoop-2.7.2/etc/hadoop目录下创建dfs.hosts.exclude文件
    [atguigu@hadoop102 hadoop]$ pwd
    /opt/module/hadoop-2.7.2/etc/hadoop
    [atguigu@hadoop102 hadoop]$ touch dfs.hosts.exclude
    [atguigu@hadoop102 hadoop]$ vi dfs.hosts.exclude
    添加如下主机名称(要退役的节点)
    hadoop105
    2.在NameNode的hdfs-site.xml配置文件中增加dfs.hosts.exclude属性

    dfs.hosts.exclude
    /opt/module/hadoop-2.7.2/etc/hadoop/dfs.hosts.exclude

    3.刷新NameNode、刷新ResourceManager
    [atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfsadmin -refreshNodes
    Refresh nodes successful

[atguigu@hadoop102 hadoop-2.7.2]$ yarn rmadmin -refreshNodes
17/06/24 14:55:56 INFO client.RMProxy: Connecting to ResourceManager at hadoop103/192.168.1.103:8033
4. 检查Web浏览器,退役节点的状态为decommission in progress(退役中),说明数据节点正在复制块到其他节点,如图3-17所示

图3-17 退役中
5. 等待退役节点状态为decommissioned(所有块已经复制完成),停止该节点及节点资源管理器。注意:如果副本数是3,服役的节点小于等于3,是不能退役成功的,需要修改副本数后才能退役,如图3-18所示

图3-18 已退役
[atguigu@hadoop105 hadoop-2.7.2]$ sbin/hadoop-daemon.sh stop datanode
stopping datanode
[atguigu@hadoop105 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop nodemanager
stopping nodemanager
6. 如果数据不均衡,可以用命令实现集群的再平衡
[atguigu@hadoop102 hadoop-2.7.2]$ sbin/start-balancer.sh
starting balancer, logging to /opt/module/hadoop-2.7.2/logs/hadoop-atguigu-balancer-hadoop102.out
Time Stamp Iteration# Bytes Already Moved Bytes Left To Move Bytes Being Moved
注意:不允许白名单和黑名单中同时出现同一个主机名称。
6.6 Datanode多目录配置

  1. DataNode也可以配置成多个目录,每个目录存储的数据不一样。即:数据不是副本
    2.具体配置如下
    hdfs-site.xml

    dfs.datanode.data.dir
    file:/// h a d o o p . t m p . d i r / d f s / d a t a 1 , f i l e : / / / {hadoop.tmp.dir}/dfs/data1,file:/// hadoop.tmp.dir/dfs/data1,file:///{hadoop.tmp.dir}/dfs/data2

    第7章 HDFS 2.X新特性
    7.1 集群间数据拷贝
    1.scp实现两个远程主机之间的文件复制
    scp -r hello.txt root@hadoop103:/user/atguigu/hello.txt // 推 push
    scp -r root@hadoop103:/user/atguigu/hello.txt hello.txt // 拉 pull
    scp -r root@hadoop103:/user/atguigu/hello.txt root@hadoop104:/user/atguigu //是通过本地主机中转实现两个远程主机的文件复制;如果在两个远程主机之间ssh没有配置的情况下可以使用该方式。
    2.采用distcp命令实现两个Hadoop集群之间的递归数据复制
    [atguigu@hadoop102 hadoop-2.7.2]$ bin/hadoop distcp
    hdfs://haoop102:9000/user/atguigu/hello.txt hdfs://hadoop103:9000/user/atguigu/hello.txt
    7.2 小文件存档

3.案例实操
(1)需要启动YARN进程
[atguigu@hadoop102 hadoop-2.7.2]$ start-yarn.sh
(2)归档文件
把/user/atguigu/input目录里面的所有文件归档成一个叫input.har的归档文件,并把归档后文件存储到/user/atguigu/output路径下。
[atguigu@hadoop102 hadoop-2.7.2]$ bin/hadoop archive -archiveName input.har –p /user/atguigu/input /user/atguigu/output
(3)查看归档
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -lsr /user/atguigu/output/input.har

[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -lsr har:///user/atguigu/output/input.har
(4)解归档文件
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -cp har:/// user/atguigu/output/input.har/* /user/atguigu
7.3 回收站
开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。
1.回收站参数设置及工作机制

图3-19 回收站
2.启用回收站
修改core-site.xml,配置垃圾回收时间为1分钟。

fs.trash.interval
1

3.查看回收站
回收站在集群中的路径:/user/atguigu/.Trash/….
4.修改访问垃圾回收站用户名称
进入垃圾回收站用户名称,默认是dr.who,修改为atguigu用户
[core-site.xml]

hadoop.http.staticuser.user
atguigu

5. 通过程序删除的文件不会经过回收站,需要调用moveToTrash()才进入回收站
Trash trash = New Trash(conf);
trash.moveToTrash(path);
6. 恢复回收站数据
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -mv
/user/atguigu/.Trash/Current/user/atguigu/input /user/atguigu/input
7. 清空回收站
[atguigu@hadoop102 hadoop-2.7.2]$ hadoop fs -expunge
7.4 快照管理

2.案例实操
(1)开启/禁用指定目录的快照功能
[atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfsadmin -allowSnapshot /user/atguigu/input

[atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfsadmin -disallowSnapshot /user/atguigu/input
(2)对目录创建快照
[atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfs -createSnapshot /user/atguigu/input
通过web访问hdfs://hadoop102:50070/user/atguigu/input/.snapshot/s……// 快照和源文件使用相同数据
[atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfs -lsr /user/atguigu/input/.snapshot/
(3)指定名称创建快照
[atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfs -createSnapshot /user/atguigu/input miao170508
(4)重命名快照
[atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfs -renameSnapshot /user/atguigu/input/ miao170508 atguigu170508
(5)列出当前用户所有可快照目录
[atguigu@hadoop102 hadoop-2.7.2]$ hdfs lsSnapshottableDir
(6)比较两个快照目录的不同之处
[atguigu@hadoop102 hadoop-2.7.2]$ hdfs snapshotDiff
/user/atguigu/input/ . .snapshot/atguigu170508
(7)恢复快照
[atguigu@hadoop102 hadoop-2.7.2]$ hdfs dfs -cp
/user/atguigu/input/.snapshot/s20170708-134303.027 /user
第8章 HDFS HA高可用
8.1 HA概述
1)所谓HA(High Available),即高可用(7*24小时不中断服务)。
2)实现高可用最关键的策略是消除单点故障。HA严格来说应该分成各个组件的HA机制:HDFS的HA和YARN的HA。
3)Hadoop2.0之前,在HDFS集群中NameNode存在单点故障(SPOF)。
4)NameNode主要在以下两个方面影响HDFS集群
NameNode机器发生意外,如宕机,集群将无法使用,直到管理员重启
NameNode机器需要升级,包括软件、硬件升级,此时集群也将无法使用
HDFS HA功能通过配置Active/Standby两个NameNodes实现在集群中对NameNode的热备来解决上述问题。如果出现故障,如机器崩溃或机器需要升级维护,这时可通过此种方式将NameNode很快的切换到另外一台机器。
8.2 HDFS-HA工作机制
通过双NameNode消除单点故障
8.2.1 HDFS-HA工作要点

  1. 元数据管理方式需要改变
    内存中各自保存一份元数据;
    Edits日志只有Active状态的NameNode节点可以做写操作;
    两个NameNode都可以读取Edits;
    共享的Edits放在一个共享存储中管理(qjournal和NFS两个主流实现);
  2. 需要一个状态管理功能模块
    实现了一个zkfailover,常驻在每一个namenode所在的节点,每一个zkfailover负责监控自己所在NameNode节点,利用zk进行状态标识,当需要进行状态切换时,由zkfailover来负责切换,切换时需要防止brain split现象的发生。
  3. 必须保证两个NameNode之间能够ssh无密码登录
  4. 隔离(Fence),即同一时刻仅仅有一个NameNode对外提供服务
    8.2.2 HDFS-HA自动故障转移工作机制
    前面学习了使用命令hdfs haadmin -failover手动进行故障转移,在该模式下,即使现役NameNode已经失效,系统也不会自动从现役NameNode转移到待机NameNode,下面学习如何配置部署HA自动进行故障转移。自动故障转移为HDFS部署增加了两个新组件:ZooKeeper和ZKFailoverController(ZKFC)进程,如图3-20所示。ZooKeeper是维护少量协调数据,通知客户端这些数据的改变和监视客户端故障的高可用服务。HA的自动故障转移依赖于ZooKeeper的以下功能:
    1)故障检测:集群中的每个NameNode在ZooKeeper中维护了一个持久会话,如果机器崩溃,ZooKeeper中的会话将终止,ZooKeeper通知另一个NameNode需要触发故障转移。
    2)现役NameNode选择:ZooKeeper提供了一个简单的机制用于唯一的选择一个节点为active状态。如果目前现役NameNode崩溃,另一个节点可能从ZooKeeper获得特殊的排外锁以表明它应该成为现役NameNode。
    ZKFC是自动故障转移中的另一个新组件,是ZooKeeper的客户端,也监视和管理NameNode的状态。每个运行NameNode的主机也运行了一个ZKFC进程,ZKFC负责:
    1)健康监测:ZKFC使用一个健康检查命令定期地ping与之在相同主机的NameNode,只要该NameNode及时地回复健康状态,ZKFC认为该节点是健康的。如果该节点崩溃,冻结或进入不健康状态,健康监测器标识该节点为非健康的。
    2)ZooKeeper会话管理:当本地NameNode是健康的,ZKFC保持一个在ZooKeeper中打开的会话。如果本地NameNode处于active状态,ZKFC也保持一个特殊的znode锁,该锁使用了ZooKeeper对短暂节点的支持,如果会话终止,锁节点将自动删除。
    3)基于ZooKeeper的选择:如果本地NameNode是健康的,且ZKFC发现没有其它的节点当前持有znode锁,它将为自己获取该锁。如果成功,则它已经赢得了选择,并负责运行故障转移进程以使它的本地NameNode为Active。故障转移进程与前面描述的手动故障转移相似,首先如果必要保护之前的现役NameNode,然后本地NameNode转换为Active状态。

图3-20 HDFS-HA故障转移机制
8.3 HDFS-HA集群配置
8.3.1 环境准备

  1. 修改IP
  2. 修改主机名及主机名和IP地址的映射
  3. 关闭防火墙
  4. ssh免密登录
  5. 安装JDK,配置环境变量等
    8.3.2 规划集群
    表3-1
    hadoop102 hadoop103 hadoop104
    NameNode NameNode
    JournalNode JournalNode JournalNode
    DataNode DataNode DataNode
    ZK ZK ZK
    ResourceManager
    NodeManager NodeManager NodeManager
    8.3.3 配置Zookeeper集群
  6. 集群规划
    在hadoop102、hadoop103和hadoop104三个节点上部署Zookeeper。
  7. 解压安装
    (1)解压Zookeeper安装包到/opt/module/目录下
    [atguigu@hadoop102 software]$ tar -zxvf zookeeper-3.4.10.tar.gz -C /opt/module/
    (2)在/opt/module/zookeeper-3.4.10/这个目录下创建zkData
    mkdir -p zkData
    (3)重命名/opt/module/zookeeper-3.4.10/conf这个目录下的zoo_sample.cfg为zoo.cfg
    mv zoo_sample.cfg zoo.cfg
  8. 配置zoo.cfg文件
    (1)具体配置
    dataDir=/opt/module/zookeeper-3.4.10/zkData
    增加如下配置
    #######################cluster##########################
    server.2=hadoop102:2888:3888
    server.3=hadoop103:2888:3888
    server.4=hadoop104:2888:3888
    (2)配置参数解读
    Server.A=B:C:D。
    A是一个数字,表示这个是第几号服务器;
    B是这个服务器的IP地址;
    C是这个服务器与集群中的Leader服务器交换信息的端口;
    D是万一集群中的Leader服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。
    集群模式下配置一个文件myid,这个文件在dataDir目录下,这个文件里面有一个数据就是A的值,Zookeeper启动时读取此文件,拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是哪个server。
  9. 集群操作
    (1)在/opt/module/zookeeper-3.4.10/zkData目录下创建一个myid的文件
    touch myid
    添加myid文件,注意一定要在linux里面创建,在notepad++里面很可能乱码
    (2)编辑myid文件
    vi myid
    在文件中添加与server对应的编号:如2
    (3)拷贝配置好的zookeeper到其他机器上
    scp -r zookeeper-3.4.10/ root@hadoop103.atguigu.com:/opt/app/
    scp -r zookeeper-3.4.10/ root@hadoop104.atguigu.com:/opt/app/
    并分别修改myid文件中内容为3、4
    (4)分别启动zookeeper
    [root@hadoop102 zookeeper-3.4.10]# bin/zkServer.sh start
    [root@hadoop103 zookeeper-3.4.10]# bin/zkServer.sh start
    [root@hadoop104 zookeeper-3.4.10]# bin/zkServer.sh start
    (5)查看状态
    [root@hadoop102 zookeeper-3.4.10]# bin/zkServer.sh status
    JMX enabled by default
    Using config: /opt/module/zookeeper-3.4.10/bin/…/conf/zoo.cfg
    Mode: follower
    [root@hadoop103 zookeeper-3.4.10]# bin/zkServer.sh status
    JMX enabled by default
    Using config: /opt/module/zookeeper-3.4.10/bin/…/conf/zoo.cfg
    Mode: leader
    [root@hadoop104 zookeeper-3.4.5]# bin/zkServer.sh status
    JMX enabled by default
    Using config: /opt/module/zookeeper-3.4.10/bin/…/conf/zoo.cfg
    Mode: follower
    8.3.4 配置HDFS-HA集群
  10. 官方地址:http://hadoop.apache.org/
  11. 在opt目录下创建一个ha文件夹
    mkdir ha
  12. 将/opt/app/下的 hadoop-2.7.2拷贝到/opt/ha目录下
    cp -r hadoop-2.7.2/ /opt/ha/
  13. 配置hadoop-env.sh
    export JAVA_HOME=/opt/module/jdk1.8.0_144
  14. 配置core-site.xml
	<property>
		<name>fs.defaultFS</name>
    	<value>hdfs://mycluster</value>
	</property>

	<!-- 指定hadoop运行时产生文件的存储目录 -->
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/opt/ha/hadoop-2.7.2/data/tmp</value>
	</property>
6. 配置hdfs-site.xml dfs.nameservices mycluster
<!-- 集群中NameNode节点都有哪些 -->
<property>
	<name>dfs.ha.namenodes.mycluster</name>
	<value>nn1,nn2</value>
</property>

<!-- nn1的RPC通信地址 -->
<property>
	<name>dfs.namenode.rpc-address.mycluster.nn1</name>
	<value>hadoop102:9000</value>
</property>

<!-- nn2的RPC通信地址 -->
<property>
	<name>dfs.namenode.rpc-address.mycluster.nn2</name>
	<value>hadoop103:9000</value>
</property>

<!-- nn1的http通信地址 -->
<property>
	<name>dfs.namenode.http-address.mycluster.nn1</name>
	<value>hadoop102:50070</value>
</property>

<!-- nn2的http通信地址 -->
<property>
	<name>dfs.namenode.http-address.mycluster.nn2</name>
	<value>hadoop103:50070</value>
</property>

<!-- 指定NameNode元数据在JournalNode上的存放位置 -->
<property>
	<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://hadoop102:8485;hadoop103:8485;hadoop104:8485/mycluster</value>
</property>

<!-- 配置隔离机制,即同一时刻只能有一台服务器对外响应 -->
<property>
	<name>dfs.ha.fencing.methods</name>
	<value>sshfence</value>
</property>

<!-- 使用隔离机制时需要ssh无秘钥登录-->
<property>
	<name>dfs.ha.fencing.ssh.private-key-files</name>
	<value>/home/atguigu/.ssh/id_rsa</value>
</property>

<!-- 声明journalnode服务器存储目录-->
<property>
	<name>dfs.journalnode.edits.dir</name>
	<value>/opt/ha/hadoop-2.7.2/data/jn</value>
</property>

<!-- 关闭权限检查-->
<property>
	<name>dfs.permissions.enable</name>
	<value>false</value>
</property>

<!-- 访问代理类:client,mycluster,active配置失败自动切换实现方式-->
<property>
	<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
7. 拷贝配置好的hadoop环境到其他节点 8.3.5 启动HDFS-HA集群 1. 在各个JournalNode节点上,输入以下命令启动journalnode服务 sbin/hadoop-daemon.sh start journalnode 2. 在[nn1]上,对其进行格式化,并启动 bin/hdfs namenode -format sbin/hadoop-daemon.sh start namenode 3. 在[nn2]上,同步nn1的元数据信息 bin/hdfs namenode -bootstrapStandby 4. 启动[nn2] sbin/hadoop-daemon.sh start namenode 5. 查看web页面显示,如图3-21,3-22所示

图3-21 hadoop102(standby)

图3-22 hadoop103(standby)
6. 在[nn1]上,启动所有datanode
sbin/hadoop-daemons.sh start datanode
7. 将[nn1]切换为Active
bin/hdfs haadmin -transitionToActive nn1
5. 查看是否Active
bin/hdfs haadmin -getServiceState nn1
8.3.6 配置HDFS-HA自动故障转移

  1. 具体配置
    (1)在hdfs-site.xml中增加

    dfs.ha.automatic-failover.enabled
    true

    (2)在core-site.xml文件中增加

    ha.zookeeper.quorum
    hadoop102:2181,hadoop103:2181,hadoop104:2181
  2. 启动
    (1)关闭所有HDFS服务:
    sbin/stop-dfs.sh
    (2)启动Zookeeper集群:
    bin/zkServer.sh start
    (3)初始化HA在Zookeeper中状态:
    bin/hdfs zkfc -formatZK
    (4)启动HDFS服务:
    sbin/start-dfs.sh
    (5)在各个NameNode节点上启动DFSZK Failover Controller,先在哪台机器启动,哪个机器的NameNode就是Active NameNode
    sbin/hadoop-daemin.sh start zkfc
  3. 验证
    (1)将Active NameNode进程kill
    kill -9 namenode的进程id
    (2)将Active NameNode机器断开网络
    service network stop
    8.4 YARN-HA配置
    8.4.1 YARN-HA工作机制
  4. 官方文档:
    http://hadoop.apache.org/docs/r2.7.2/hadoop-yarn/hadoop-yarn-site/ResourceManagerHA.html
  5. YARN-HA工作机制,如图3-23所示

图3-22 YARN-HA工作机制
8.4.2 配置YARN-HA集群

  1. 环境准备
    (1)修改IP
    (2)修改主机名及主机名和IP地址的映射
    (3)关闭防火墙
    (4)ssh免密登录
    (5)安装JDK,配置环境变量等
    (6)配置Zookeeper集群

  2. 规划集群
    表3-2
    hadoop102 hadoop103 hadoop104
    NameNode NameNode
    JournalNode JournalNode JournalNode
    DataNode DataNode DataNode
    ZK ZK ZK
    ResourceManager ResourceManager
    NodeManager NodeManager NodeManager

  3. 具体配置
    (1)yarn-site.xml

    yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.ha.enabled true yarn.resourcemanager.cluster-id cluster-yarn1 yarn.resourcemanager.ha.rm-ids rm1,rm2 yarn.resourcemanager.hostname.rm1 hadoop102 yarn.resourcemanager.hostname.rm2 hadoop103 yarn.resourcemanager.zk-address hadoop102:2181,hadoop103:2181,hadoop104:2181 yarn.resourcemanager.recovery.enabled true yarn.resourcemanager.store.class org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore
(2)同步更新其他节点的配置信息 4. 启动HDFS (1)在各个JournalNode节点上,输入以下命令启动journalnode服务: sbin/hadoop-daemon.sh start journalnode (2)在[nn1]上,对其进行格式化,并启动: bin/hdfs namenode -format sbin/hadoop-daemon.sh start namenode (3)在[nn2]上,同步nn1的元数据信息: bin/hdfs namenode -bootstrapStandby (4)启动[nn2]: sbin/hadoop-daemon.sh start namenode (5)启动所有DataNode sbin/hadoop-daemons.sh start datanode (6)将[nn1]切换为Active bin/hdfs haadmin -transitionToActive nn1 5. 启动YARN (1)在hadoop102中执行: sbin/start-yarn.sh (2)在hadoop103中执行: sbin/yarn-daemon.sh start resourcemanager (3)查看服务状态,如图3-24所示 bin/yarn rmadmin -getServiceState rm1

图3-24 YARN的服务状态
8.5 HDFS Federation架构设计

  1. NameNode架构的局限性
    (1)Namespace(命名空间)的限制
    由于NameNode在内存中存储所有的元数据(metadata),因此单个NameNode所能存储的对象(文件+块)数目受到NameNode所在JVM的heap size的限制。50G的heap能够存储20亿(200million)个对象,这20亿个对象支持4000个DataNode,12PB的存储(假设文件平均大小为40MB)。随着数据的飞速增长,存储的需求也随之增长。单个DataNode从4T增长到36T,集群的尺寸增长到8000个DataNode。存储的需求从12PB增长到大于100PB。
    (2)隔离问题
    由于HDFS仅有一个NameNode,无法隔离各个程序,因此HDFS上的一个实验程序就很有可能影响整个HDFS上运行的程序。
    (3)性能的瓶颈
    由于是单个NameNode的HDFS架构,因此整个HDFS文件系统的吞吐量受限于单个NameNode的吞吐量。
  2. HDFS Federation架构设计,如图3-25所示
    能不能有多个NameNode
    表3-3
    NameNode NameNode NameNode
    元数据 元数据 元数据
    Log machine 电商数据/话单数据

图3-25 HDFS Federation架构设计
3. HDFS Federation应用思考
不同应用可以使用不同NameNode进行数据管理
图片业务、爬虫业务、日志审计业务
Hadoop生态系统中,不同的框架使用不同的NameNode进行管理NameSpace。(隔离性)
尚硅谷大数据技术之Hadoop(MapReduce)
(作者:尚硅谷大数据研发部)

版本:V2.0
第1章 MapReduce概述
1.1 MapReduce定义

1.2 MapReduce优缺点
1.2.1 优点

1.2.2 缺点

1.3 MapReduce核心思想
MapReduce核心编程思想,如图4-1所示。

图4-1 MapReduce核心编程思想
1)分布式的运算程序往往需要分成至少2个阶段。
2)第一个阶段的MapTask并发实例,完全并行运行,互不相干。
3)第二个阶段的ReduceTask并发实例互不相干,但是他们的数据依赖于上一个阶段的所有MapTask并发实例的输出。
4)MapReduce编程模型只能包含一个Map阶段和一个Reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个MapReduce程序,串行运行。
总结:分析WordCount数据流走向深入理解MapReduce核心思想。
1.4 MapReduce进程

1.5 官方WordCount源码
采用反编译工具反编译源码,发现WordCount案例有Map类、Reduce类和驱动类。且数据的类型是Hadoop自身封装的序列化类型。
1.6 常用数据序列化类型
表4-1 常用的数据类型对应的Hadoop数据序列化类型
Java类型 Hadoop Writable类型
boolean BooleanWritable
byte ByteWritable
int IntWritable
float FloatWritable
long LongWritable
double DoubleWritable
String Text
map MapWritable
array ArrayWritable
1.7 MapReduce编程规范
用户编写的程序分成三个部分:Mapper、Reducer和Driver。

1.8 WordCount案例实操
1.需求
在给定的文本文件中统计输出每一个单词出现的总次数
(1)输入数据

(2)期望输出数据
atguigu 2
banzhang 1
cls 2
hadoop 1
jiao 1
ss 2
xue 1
2.需求分析
按照MapReduce编程规范,分别编写Mapper,Reducer,Driver,如图4-2所示。

图4-2 需求分析
3.环境准备
(1)创建maven工程

(2)在pom.xml文件中添加如下依赖


junit
junit
RELEASE


org.apache.logging.log4j
log4j-core
2.8.2


org.apache.hadoop
hadoop-common
2.7.2


org.apache.hadoop
hadoop-client
2.7.2


org.apache.hadoop
hadoop-hdfs
2.7.2


(2)在项目的src/main/resources目录下,新建一个文件,命名为“log4j.properties”,在文件中填入。
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
4.编写程序
(1)编写Mapper类
package com.atguigu.mapreduce;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class WordcountMapper extends Mapper<LongWritable, Text, Text, IntWritable>{

Text k = new Text();
IntWritable v = new IntWritable(1);

@Override
protected void map(LongWritable key, Text value, Context context)	throws IOException, InterruptedException {
	
	// 1 获取一行
	String line = value.toString();
	
	// 2 切割
	String[] words = line.split(" ");
	
	// 3 输出
	for (String word : words) {
		
		k.set(word);
		context.write(k, v);
	}
}

}
(2)编写Reducer类
package com.atguigu.mapreduce.wordcount;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class WordcountReducer extends Reducer<Text, IntWritable, Text, IntWritable>{

int sum;
IntWritable v = new IntWritable();

@Override
protected void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {
	
	// 1 累加求和
	sum = 0;
	for (IntWritable count : values) {
		sum += count.get();
	}
	
	// 2 输出
   v.set(sum);
	context.write(key,v);
}

}
(3)编写Driver驱动类
package com.atguigu.mapreduce.wordcount;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class WordcountDriver {

public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {

	// 1 获取配置信息以及封装任务
	Configuration configuration = new Configuration();
	Job job = Job.getInstance(configuration);

	// 2 设置jar加载路径
	job.setJarByClass(WordcountDriver.class);

	// 3 设置map和reduce类
	job.setMapperClass(WordcountMapper.class);
	job.setReducerClass(WordcountReducer.class);

	// 4 设置map输出
	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(IntWritable.class);

	// 5 设置最终输出kv类型
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(IntWritable.class);
	
	// 6 设置输入和输出路径
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	// 7 提交
	boolean result = job.waitForCompletion(true);

	System.exit(result ? 0 : 1);
}

}
5.本地测试
(1)如果电脑系统是win7的就将win7的hadoop jar包解压到非中文路径,并在Windows环境上配置HADOOP_HOME环境变量。如果是电脑win10操作系统,就解压win10的hadoop jar包,并配置HADOOP_HOME环境变量。
注意:win8电脑和win10家庭版操作系统可能有问题,需要重新编译源码或者更改操作系统。

(2)在Eclipse/Idea上运行程序
6.集群上测试
(0)用maven打jar包,需要添加的打包插件依赖
注意:标记红颜色的部分需要替换为自己工程主类



maven-compiler-plugin
2.3.2

1.8
1.8



maven-assembly-plugin


jar-with-dependencies



com.atguigu.mr.WordcountDriver





make-assembly
package

single






注意:如果工程上显示红叉。在项目上右键->maven->update project即可。
(1)将程序打成jar包,然后拷贝到Hadoop集群中
步骤详情:右键->Run as->maven install。等待编译完成就会在项目的target文件夹中生成jar包。如果看不到。在项目上右键-》Refresh,即可看到。修改不带依赖的jar包名称为wc.jar,并拷贝该jar包到Hadoop集群。
(2)启动Hadoop集群
(3)执行WordCount程序
[atguigu@hadoop102 software]$ hadoop jar wc.jar
com.atguigu.mr.WordcountDriver /user/atguigu/input /user/atguigu/output
注意:com.atguigu.mr.WordcountDriver要和自己工程的全类名一致
第2章 Hadoop序列化
2.1 序列化概述

2.2 自定义bean对象实现序列化接口(Writable)
在企业开发中往往常用的基本序列化类型不能满足所有需求,比如在Hadoop框架内部传递一个bean对象,那么该对象就需要实现序列化接口。
具体实现bean对象序列化步骤如下7步。
(1)必须实现Writable接口
(2)反序列化时,需要反射调用空参构造函数,所以必须有空参构造
public FlowBean() {
super();
}
(3)重写序列化方法
@Override
public void write(DataOutput out) throws IOException {
out.writeLong(upFlow);
out.writeLong(downFlow);
out.writeLong(sumFlow);
}
(4)重写反序列化方法
@Override
public void readFields(DataInput in) throws IOException {
upFlow = in.readLong();
downFlow = in.readLong();
sumFlow = in.readLong();
}
(5)注意反序列化的顺序和序列化的顺序完全一致
(6)要想把结果显示在文件中,需要重写toString(),可用”\t”分开,方便后续用。
(7)如果需要将自定义的bean放在key中传输,则还需要实现Comparable接口,因为MapReduce框中的Shuffle过程要求对key必须能排序。详见后面排序案例。
@Override
public int compareTo(FlowBean o) {
// 倒序排列,从大到小
return this.sumFlow > o.getSumFlow() ? -1 : 1;
}
2.3 序列化案例实操

  1. 需求
    统计每一个手机号耗费的总上行流量、下行流量、总流量
    (1)输入数据

(2)输入数据格式:
7 13560436666 120.196.100.99 1116 954 200
id 手机号码 网络ip 上行流量 下行流量 网络状态码
(3)期望输出数据格式
13560436666 1116 954 2070
手机号码 上行流量 下行流量 总流量
2.需求分析

3.编写MapReduce程序
(1)编写流量统计的Bean对象
package com.atguigu.mapreduce.flowsum;
import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;
import org.apache.hadoop.io.Writable;

// 1 实现writable接口
public class FlowBean implements Writable{

private long upFlow;
private long downFlow;
private long sumFlow;

//2  反序列化时,需要反射调用空参构造函数,所以必须有
public FlowBean() {
	super();
}

public FlowBean(long upFlow, long downFlow) {
	super();
	this.upFlow = upFlow;
	this.downFlow = downFlow;
	this.sumFlow = upFlow + downFlow;
}

//3  写序列化方法
@Override
public void write(DataOutput out) throws IOException {
	out.writeLong(upFlow);
	out.writeLong(downFlow);
	out.writeLong(sumFlow);
}

//4 反序列化方法
//5 反序列化方法读顺序必须和写序列化方法的写顺序必须一致
@Override
public void readFields(DataInput in) throws IOException {
	this.upFlow  = in.readLong();
	this.downFlow = in.readLong();
	this.sumFlow = in.readLong();
}

// 6 编写toString方法,方便后续打印到文本
@Override
public String toString() {
	return upFlow + "\t" + downFlow + "\t" + sumFlow;
}

public long getUpFlow() {
	return upFlow;
}

public void setUpFlow(long upFlow) {
	this.upFlow = upFlow;
}

public long getDownFlow() {
	return downFlow;
}

public void setDownFlow(long downFlow) {
	this.downFlow = downFlow;
}

public long getSumFlow() {
	return sumFlow;
}

public void setSumFlow(long sumFlow) {
	this.sumFlow = sumFlow;
}

}
(2)编写Mapper类
package com.atguigu.mapreduce.flowsum;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class FlowCountMapper extends Mapper<LongWritable, Text, Text, FlowBean>{

FlowBean v = new FlowBean();
Text k = new Text();

@Override
protected void map(LongWritable key, Text value, Context context)	throws IOException, InterruptedException {
	
	// 1 获取一行
	String line = value.toString();
	
	// 2 切割字段
	String[] fields = line.split("\t");
	
	// 3 封装对象
	// 取出手机号码
	String phoneNum = fields[1];

	// 取出上行流量和下行流量
	long upFlow = Long.parseLong(fields[fields.length - 3]);
	long downFlow = Long.parseLong(fields[fields.length - 2]);

	k.set(phoneNum);
	v.set(downFlow, upFlow);
	
	// 4 写出
	context.write(k, v);
}

}
(3)编写Reducer类
package com.atguigu.mapreduce.flowsum;
import java.io.IOException;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class FlowCountReducer extends Reducer<Text, FlowBean, Text, FlowBean> {

@Override
protected void reduce(Text key, Iterable<FlowBean> values, Context context)throws IOException, InterruptedException {

	long sum_upFlow = 0;
	long sum_downFlow = 0;

	// 1 遍历所用bean,将其中的上行流量,下行流量分别累加
	for (FlowBean flowBean : values) {
		sum_upFlow += flowBean.getUpFlow();
		sum_downFlow += flowBean.getDownFlow();
	}

	// 2 封装对象
	FlowBean resultBean = new FlowBean(sum_upFlow, sum_downFlow);
	
	// 3 写出
	context.write(key, resultBean);
}

}
(4)编写Driver驱动类
package com.atguigu.mapreduce.flowsum;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class FlowsumDriver {

public static void main(String[] args) throws IllegalArgumentException, IOException, ClassNotFoundException, InterruptedException {

// 输入输出路径需要根据自己电脑上实际的输入输出路径设置
args = new String[] { “e:/input/inputflow”, “e:/output1” };

	// 1 获取配置信息,或者job对象实例
	Configuration configuration = new Configuration();
	Job job = Job.getInstance(configuration);

	// 6 指定本程序的jar包所在的本地路径
	job.setJarByClass(FlowsumDriver.class);

	// 2 指定本业务job要使用的mapper/Reducer业务类
	job.setMapperClass(FlowCountMapper.class);
	job.setReducerClass(FlowCountReducer.class);

	// 3 指定mapper输出数据的kv类型
	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(FlowBean.class);

	// 4 指定最终输出的数据的kv类型
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(FlowBean.class);
	
	// 5 指定job的输入原始文件所在目录
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	// 7 将job中配置的相关参数,以及job所用的java类所在的jar包, 提交给yarn去运行
	boolean result = job.waitForCompletion(true);
	System.exit(result ? 0 : 1);
}

}
第3章 MapReduce框架原理
3.1 InputFormat数据输入
3.1.1 切片与MapTask并行度决定机制
1.问题引出
MapTask的并行度决定Map阶段的任务处理并发度,进而影响到整个Job的处理速度。
思考:1G的数据,启动8个MapTask,可以提高集群的并发处理能力。那么1K的数据,也启动8个MapTask,会提高集群性能吗?MapTask并行任务是否越多越好呢?哪些因素影响了MapTask并行度?
2.MapTask并行度决定机制
数据块:Block是HDFS物理上把数据分成一块一块。
数据切片:数据切片只是在逻辑上对输入进行分片,并不会在磁盘上将其切分成片进行存储。

图4-11 MapTask并行度决定机制
3.1.2 Job提交流程源码和切片源码详解
1.Job提交流程源码详解,如图4-8所示
waitForCompletion()

submit();

// 1建立连接
connect();
// 1)创建提交Job的代理
new Cluster(getConfiguration());
// (1)判断是本地yarn还是远程
initialize(jobTrackAddr, conf);

// 2 提交job
submitter.submitJobInternal(Job.this, cluster)
// 1)创建给集群提交数据的Stag路径
Path jobStagingArea = JobSubmissionFiles.getStagingDir(cluster, conf);

// 2)获取jobid ,并创建Job路径
JobID jobId = submitClient.getNewJobID();

// 3)拷贝jar包到集群

copyAndConfigureFiles(job, submitJobDir);
rUploader.uploadFiles(job, jobSubmitDir);

// 4)计算切片,生成切片规划文件
writeSplits(job, submitJobDir);
maps = writeNewSplits(job, jobSubmitDir);
input.getSplits(job);

// 5)向Stag路径写XML配置文件
writeConf(conf, submitJobFile);
conf.writeXml(out);

// 6)提交Job,返回提交状态
status = submitClient.submitJob(jobId, submitJobDir.toString(), job.getCredentials());

图4-8 Job提交流程源码分析
2.FileInputFormat切片源码解析(input.getSplits(job))

3.1.3 FileInputFormat切片机制

3.1.4 CombineTextInputFormat切片机制
框架默认的TextInputFormat切片机制是对任务按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个MapTask,这样如果有大量小文件,就会产生大量的MapTask,处理效率极其低下。
1、应用场景:
CombineTextInputFormat用于小文件过多的场景,它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个MapTask处理。
2、虚拟存储切片最大值设置
CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);// 4m
3、切片机制
生成切片过程包括:虚拟存储过程和切片过程二部分。

(1)虚拟存储过程:
将输入目录下所有文件大小,依次和设置的setMaxInputSplitSize值比较,如果不大于设置的最大值,逻辑上划分一个块。如果输入文件大于设置的最大值且大于两倍,那么以最大值切割一块;当剩余数据大小超过设置的最大值且不大于最大值2倍,此时将文件均分成2个虚拟存储块(防止出现太小切片)。
例如setMaxInputSplitSize值为4M,输入文件大小为8.02M,则先逻辑上分成一个4M。剩余的大小为4.02M,如果按照4M逻辑划分,就会出现0.02M的小的虚拟存储文件,所以将剩余的4.02M文件切分成(2.01M和2.01M)两个文件。
(2)切片过程:
(a)判断虚拟存储的文件大小是否大于setMaxInputSplitSize值,大于等于则单独形成一个切片。
(b)如果不大于则跟下一个虚拟存储文件进行合并,共同形成一个切片。
(c)测试举例:有4个小文件大小分别为1.7M、5.1M、3.4M以及6.8M这四个小文件,则虚拟存储之后形成6个文件块,大小分别为:
1.7M,(2.55M、2.55M),3.4M以及(3.4M、3.4M)
最终会形成3个切片,大小分别为:
(1.7+2.55)M,(2.55+3.4)M,(3.4+3.4)M
3.1.5 CombineTextInputFormat案例实操
1.需求
将输入的大量小文件合并成一个切片统一处理。
(1)输入数据
准备4个小文件
(2)期望
期望一个切片处理4个文件
2.实现过程
(1)不做任何处理,运行1.6节的WordCount案例程序,观察切片个数为4。

(2)在WordcountDriver中增加如下代码,运行程序,并观察运行的切片个数为3。
(a)驱动类中添加代码如下:
// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(CombineTextInputFormat.class);

//虚拟存储切片最大值设置4m
CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);
(b)运行如果为3个切片。

(3)在WordcountDriver中增加如下代码,运行程序,并观察运行的切片个数为1。
(a)驱动中添加代码如下:
// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(CombineTextInputFormat.class);

//虚拟存储切片最大值设置20m
CombineTextInputFormat.setMaxInputSplitSize(job, 20971520);
(b)运行如果为1个切片。

3.1.6 FileInputFormat实现类

3.1.7 KeyValueTextInputFormat使用案例
1.需求
统计输入文件中每一行的第一个单词相同的行数。
(1)输入数据
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang
(2)期望结果数据
banzhang 2
xihuan 2
2.需求分析

3.代码实现
(1)编写Mapper类
package com.atguigu.mapreduce.KeyValueTextInputFormat;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class KVTextMapper extends Mapper<Text, Text, Text, LongWritable>{

// 1 设置value
LongWritable v = new LongWritable(1);

@Override
protected void map(Text key, Text value, Context context)
		throws IOException, InterruptedException {

// banzhang ni hao

    // 2 写出
    context.write(key, v);  
}

}
(2)编写Reducer类
package com.atguigu.mapreduce.KeyValueTextInputFormat;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class KVTextReducer extends Reducer<Text, LongWritable, Text, LongWritable>{

LongWritable v = new LongWritable();  

@Override
protected void reduce(Text key, Iterable<LongWritable> values,	Context context) throws IOException, InterruptedException {
	
	 long sum = 0L;  

	 // 1 汇总统计
    for (LongWritable value : values) {  
        sum += value.get();  
    }
     
    v.set(sum);  
     
    // 2 输出
    context.write(key, v);  
}

}
(3)编写Driver类
package com.atguigu.mapreduce.keyvaleTextInputFormat;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader;
import org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class KVTextDriver {

public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
	
	Configuration conf = new Configuration();
	// 设置切割符
conf.set(KeyValueLineRecordReader.KEY_VALUE_SEPERATOR, " ");
	// 1 获取job对象
	Job job = Job.getInstance(conf);
	
	// 2 设置jar包位置,关联mapper和reducer
	job.setJarByClass(KVTextDriver.class);
	job.setMapperClass(KVTextMapper.class);

job.setReducerClass(KVTextReducer.class);

	// 3 设置map输出kv类型
	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(LongWritable.class);

	// 4 设置最终输出kv类型
	job.setOutputKeyClass(Text.class);

job.setOutputValueClass(LongWritable.class);

	// 5 设置输入输出数据路径
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	
	// 设置输入格式
job.setInputFormatClass(KeyValueTextInputFormat.class);
	
	// 6 设置输出数据路径
	FileOutputFormat.setOutputPath(job, new Path(args[1]));
	
	// 7 提交job
	job.waitForCompletion(true);
}

}
3.1.8 NLineInputFormat使用案例
1.需求
对每个单词进行个数统计,要求根据每个输入文件的行数来规定输出多少个切片。此案例要求每三行放入一个切片中。
(1)输入数据
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang banzhang ni hao
xihuan hadoop banzhang
(2)期望输出数据
Number of splits:4
2.需求分析

3.代码实现
(1)编写Mapper类
package com.atguigu.mapreduce.nline;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class NLineMapper extends Mapper<LongWritable, Text, Text, LongWritable>{

private Text k = new Text();
private LongWritable v = new LongWritable(1);

@Override
protected void map(LongWritable key, Text value, Context context)	throws IOException, InterruptedException {
	
	 // 1 获取一行
    String line = value.toString();
    
    // 2 切割
    String[] splited = line.split(" ");
    
    // 3 循环写出
    for (int i = 0; i < splited.length; i++) {
    	
    	k.set(splited[i]);
    	
       context.write(k, v);
    }
}

}
(2)编写Reducer类
package com.atguigu.mapreduce.nline;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class NLineReducer extends Reducer<Text, LongWritable, Text, LongWritable>{

LongWritable v = new LongWritable();

@Override
protected void reduce(Text key, Iterable<LongWritable> values,	Context context) throws IOException, InterruptedException {
	
    long sum = 0l;

    // 1 汇总
    for (LongWritable value : values) {
        sum += value.get();
    }  
    
    v.set(sum);
    
    // 2 输出
    context.write(key, v);
}

}
(3)编写Driver类
package com.atguigu.mapreduce.nline;
import java.io.IOException;
import java.net.URISyntaxException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.NLineInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class NLineDriver {

public static void main(String[] args) throws IOException, URISyntaxException, ClassNotFoundException, InterruptedException {

// 输入输出路径需要根据自己电脑上实际的输入输出路径设置
args = new String[] { “e:/input/inputword”, “e:/output1” };

	 // 1 获取job对象
	 Configuration configuration = new Configuration();
    Job job = Job.getInstance(configuration);
    
    // 7设置每个切片InputSplit中划分三条记录
    NLineInputFormat.setNumLinesPerSplit(job, 3);
      
    // 8使用NLineInputFormat处理记录数  
    job.setInputFormatClass(NLineInputFormat.class);  
      
    // 2设置jar包位置,关联mapper和reducer
    job.setJarByClass(NLineDriver.class);  
    job.setMapperClass(NLineMapper.class);  
    job.setReducerClass(NLineReducer.class);  
    
    // 3设置map输出kv类型
    job.setMapOutputKeyClass(Text.class);  
    job.setMapOutputValueClass(LongWritable.class);  
    
    // 4设置最终输出kv类型
    job.setOutputKeyClass(Text.class);  
    job.setOutputValueClass(LongWritable.class);  
      
    // 5设置输入输出数据路径
    FileInputFormat.setInputPaths(job, new Path(args[0]));  
    FileOutputFormat.setOutputPath(job, new Path(args[1]));  
      
    // 6提交job
    job.waitForCompletion(true);  
}

}
4.测试
(1)输入数据
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang banzhang ni hao
xihuan hadoop banzhang
(2)输出结果的切片数,如图4-10所示:

图4-10 输出结果的切片数
3.1.9 自定义InputFormat

3.1.10 自定义InputFormat案例实操
无论HDFS还是MapReduce,在处理小文件时效率都非常低,但又难免面临处理大量小文件的场景,此时,就需要有相应解决方案。可以自定义InputFormat实现小文件的合并。
1.需求
将多个小文件合并成一个SequenceFile文件(SequenceFile文件是Hadoop用来存储二进制形式的key-value对的文件格式),SequenceFile里面存储着多个文件,存储的形式为文件路径+名称为key,文件内容为value。
(1)输入数据

(2)期望输出文件格式

2.需求分析

3.程序实现
(1)自定义InputFromat
package com.atguigu.mapreduce.inputformat;
import java.io.IOException;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.BytesWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.InputSplit;
import org.apache.hadoop.mapreduce.JobContext;
import org.apache.hadoop.mapreduce.RecordReader;
import org.apache.hadoop.mapreduce.TaskAttemptContext;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

// 定义类继承FileInputFormat
public class WholeFileInputformat extends FileInputFormat<Text, BytesWritable>{

@Override
protected boolean isSplitable(JobContext context, Path filename) {
	return false;
}

@Override
public RecordReader<Text, BytesWritable> createRecordReader(InputSplit split, TaskAttemptContext context)	throws IOException, InterruptedException {
	
	WholeRecordReader recordReader = new WholeRecordReader();
	recordReader.initialize(split, context);
	
	return recordReader;
}

}
(2)自定义RecordReader类
package com.atguigu.mapreduce.inputformat;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.BytesWritable;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.InputSplit;
import org.apache.hadoop.mapreduce.RecordReader;
import org.apache.hadoop.mapreduce.TaskAttemptContext;
import org.apache.hadoop.mapreduce.lib.input.FileSplit;

public class WholeRecordReader extends RecordReader<Text, BytesWritable>{

private Configuration configuration;
private FileSplit split;

private boolean isProgress= true;
private BytesWritable value = new BytesWritable();
private Text k = new Text();

@Override
public void initialize(InputSplit split, TaskAttemptContext context) throws IOException, InterruptedException {
	
	this.split = (FileSplit)split;
	configuration = context.getConfiguration();
}

@Override
public boolean nextKeyValue() throws IOException, InterruptedException {
	
	if (isProgress) {

		// 1 定义缓存区
		byte[] contents = new byte[(int)split.getLength()];
		
		FileSystem fs = null;
		FSDataInputStream fis = null;
		
		try {
			// 2 获取文件系统
			fs = FileSystem.get(configuration);
			
			// 3 读取数据

Path path = split.getPath();
fis = fs.open(path);

			// 4 读取文件内容
			IOUtils.readFully(fis, contents, 0, contents.length);
			
			// 5 输出文件内容
			value.set(contents, 0, contents.length);

// 6 获取文件路径及名称
String name = split.getPath().toString();

// 7 设置输出的key值
k.set(name);

		} catch (Exception e) {
			
		}finally {
			IOUtils.closeStream(fis);
		}
		
		isProgress = false;
		
		return true;
	}
	
	return false;
}

@Override
public Text getCurrentKey() throws IOException, InterruptedException {
	return k;
}

@Override
public BytesWritable getCurrentValue() throws IOException, InterruptedException {
	return value;
}

@Override
public float getProgress() throws IOException, InterruptedException {
	return 0;
}

@Override
public void close() throws IOException {
}

}
(3)编写SequenceFileMapper类处理流程
package com.atguigu.mapreduce.inputformat;
import java.io.IOException;
import org.apache.hadoop.io.BytesWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.lib.input.FileSplit;

public class SequenceFileMapper extends Mapper<Text, BytesWritable, Text, BytesWritable>{

@Override
protected void map(Text key, BytesWritable value,			Context context)		throws IOException, InterruptedException {

	context.write(key, value);
}

}
(4)编写SequenceFileReducer类处理流程
package com.atguigu.mapreduce.inputformat;
import java.io.IOException;
import org.apache.hadoop.io.BytesWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class SequenceFileReducer extends Reducer<Text, BytesWritable, Text, BytesWritable> {

@Override
protected void reduce(Text key, Iterable<BytesWritable> values, Context context)		throws IOException, InterruptedException {

	context.write(key, values.iterator().next());
}

}
(5)编写SequenceFileDriver类处理流程
package com.atguigu.mapreduce.inputformat;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.BytesWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat;

public class SequenceFileDriver {

public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
	
   // 输入输出路径需要根据自己电脑上实际的输入输出路径设置
	args = new String[] { "e:/input/inputinputformat", "e:/output1" };

   // 1 获取job对象
	Configuration conf = new Configuration();
	Job job = Job.getInstance(conf);

   // 2 设置jar包存储位置、关联自定义的mapper和reducer
	job.setJarByClass(SequenceFileDriver.class);
	job.setMapperClass(SequenceFileMapper.class);
	job.setReducerClass(SequenceFileReducer.class);

   // 7设置输入的inputFormat
	job.setInputFormatClass(WholeFileInputformat.class);

   // 8设置输出的outputFormat
 job.setOutputFormatClass(SequenceFileOutputFormat.class);

// 3 设置map输出端的kv类型
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(BytesWritable.class);

   // 4 设置最终输出端的kv类型
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(BytesWritable.class);

   // 5 设置输入输出路径
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

   // 6 提交job
	boolean result = job.waitForCompletion(true);
	System.exit(result ? 0 : 1);
}

}
3.2 MapReduce工作流程
1.流程示意图,如图4-6,4-7所示。

图4-6 MapReduce详细工作流程(一)

图4-7 MapReduce详细工作流程(二)
2.流程详解
上面的流程是整个MapReduce最全工作流程,但是Shuffle过程只是从第7步开始到第16步结束,具体Shuffle过程详解,如下:
1)MapTask收集我们的map()方法输出的kv对,放到内存缓冲区中
2)从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件
3)多个溢出文件会被合并成大的溢出文件
4)在溢出过程及合并的过程中,都要调用Partitioner进行分区和针对key进行排序
5)ReduceTask根据自己的分区号,去各个MapTask机器上取相应的结果分区数据
6)ReduceTask会取到同一个分区的来自不同MapTask的结果文件,ReduceTask会将这些文件再进行合并(归并排序)
7)合并成大文件后,Shuffle的过程也就结束了,后面进入ReduceTask的逻辑运算过程(从文件中取出一个一个的键值对Group,调用用户自定义的reduce()方法)
3.注意
Shuffle中的缓冲区大小会影响到MapReduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。
缓冲区的大小可以通过参数调整,参数:io.sort.mb默认100M。
4.源码解析流程
context.write(k, NullWritable.get());
output.write(key, value);
collector.collect(key, value,partitioner.getPartition(key, value, partitions));
HashPartitioner();
collect()
close()
collect.flush()
sortAndSpill()
sort() QuickSort
mergeParts();

collector.close();
3.3 Shuffle机制
3.3.1 Shuffle机制
Map方法之后,Reduce方法之前的数据处理过程称之为Shuffle。如图4-14所示。

图4-14 Shuffle机制
3.3.2 Partition分区

3.3.3 Partition分区案例实操
1.需求
将统计结果按照手机归属地不同省份输出到不同文件中(分区)
(1)输入数据

(2)期望输出数据
手机号136、137、138、139开头都分别放到一个独立的4个文件中,其他开头的放到一个文件中。
2.需求分析

3.在案例2.3的基础上,增加一个分区类
package com.atguigu.mapreduce.flowsum;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Partitioner;

public class ProvincePartitioner extends Partitioner<Text, FlowBean> {

@Override
public int getPartition(Text key, FlowBean value, int numPartitions) {

	// 1 获取电话号码的前三位
	String preNum = key.toString().substring(0, 3);
	
	int partition = 4;
	
	// 2 判断是哪个省
	if ("136".equals(preNum)) {
		partition = 0;
	}else if ("137".equals(preNum)) {
		partition = 1;
	}else if ("138".equals(preNum)) {
		partition = 2;
	}else if ("139".equals(preNum)) {
		partition = 3;
	}

	return partition;
}

}
4.在驱动函数中增加自定义数据分区设置和ReduceTask设置
package com.atguigu.mapreduce.flowsum;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class FlowsumDriver {

public static void main(String[] args) throws IllegalArgumentException, IOException, ClassNotFoundException, InterruptedException {

	// 输入输出路径需要根据自己电脑上实际的输入输出路径设置
	args = new String[]{"e:/output1","e:/output2"};

	// 1 获取配置信息,或者job对象实例
	Configuration configuration = new Configuration();
	Job job = Job.getInstance(configuration);

	// 2 指定本程序的jar包所在的本地路径
	job.setJarByClass(FlowsumDriver.class);

	// 3 指定本业务job要使用的mapper/Reducer业务类
	job.setMapperClass(FlowCountMapper.class);
	job.setReducerClass(FlowCountReducer.class);

	// 4 指定mapper输出数据的kv类型
	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(FlowBean.class);

	// 5 指定最终输出的数据的kv类型
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(FlowBean.class);

	// 8 指定自定义数据分区
	job.setPartitionerClass(ProvincePartitioner.class);

	// 9 同时指定相应数量的reduce task
	job.setNumReduceTasks(5);
	
	// 6 指定job的输入原始文件所在目录
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	// 7 将job中配置的相关参数,以及job所用的java类所在的jar包, 提交给yarn去运行
	boolean result = job.waitForCompletion(true);
	System.exit(result ? 0 : 1);
}

}
3.3.4 WritableComparable排序

1.排序的分类

2.自定义排序WritableComparable
(1)原理分析
bean对象做为key传输,需要实现WritableComparable接口重写compareTo方法,就可以实现排序。
@Override
public int compareTo(FlowBean o) {

int result;
	
// 按照总流量大小,倒序排列
if (sumFlow > bean.getSumFlow()) {
	result = -1;
}else if (sumFlow < bean.getSumFlow()) {
	result = 1;
}else {
	result = 0;
}

return result;

}
3.3.5 WritableComparable排序案例实操(全排序)
1.需求
根据案例2.3产生的结果再次对总流量进行排序。
(1)输入数据
原始数据 第一次处理后的数据

(2)期望输出数据
13509468723 7335 110349 117684
13736230513 2481 24681 27162
13956435636 132 1512 1644
13846544121 264 0 264
。。。 。。。
2.需求分析

3.代码实现
(1)FlowBean对象在在需求1基础上增加了比较功能
package com.atguigu.mapreduce.sort;
import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;
import org.apache.hadoop.io.WritableComparable;

public class FlowBean implements WritableComparable {

private long upFlow;
private long downFlow;
private long sumFlow;

// 反序列化时,需要反射调用空参构造函数,所以必须有
public FlowBean() {
	super();
}

public FlowBean(long upFlow, long downFlow) {
	super();
	this.upFlow = upFlow;
	this.downFlow = downFlow;
	this.sumFlow = upFlow + downFlow;
}

public void set(long upFlow, long downFlow) {
	this.upFlow = upFlow;
	this.downFlow = downFlow;
	this.sumFlow = upFlow + downFlow;
}

public long getSumFlow() {
	return sumFlow;
}

public void setSumFlow(long sumFlow) {
	this.sumFlow = sumFlow;
}	

public long getUpFlow() {
	return upFlow;
}

public void setUpFlow(long upFlow) {
	this.upFlow = upFlow;
}

public long getDownFlow() {
	return downFlow;
}

public void setDownFlow(long downFlow) {
	this.downFlow = downFlow;
}

/**
 * 序列化方法
 * @param out
 * @throws IOException
 */
@Override
public void write(DataOutput out) throws IOException {
	out.writeLong(upFlow);
	out.writeLong(downFlow);
	out.writeLong(sumFlow);
}

/**
 * 反序列化方法 注意反序列化的顺序和序列化的顺序完全一致
 * @param in
 * @throws IOException
 */
@Override
public void readFields(DataInput in) throws IOException {
	upFlow = in.readLong();
	downFlow = in.readLong();
	sumFlow = in.readLong();
}

@Override
public String toString() {
	return upFlow + "\t" + downFlow + "\t" + sumFlow;
}

@Override
public int compareTo(FlowBean o) {
	
	int result;
	
	// 按照总流量大小,倒序排列
	if (sumFlow > bean.getSumFlow()) {
		result = -1;
	}else if (sumFlow < bean.getSumFlow()) {
		result = 1;
	}else {
		result = 0;
	}

	return result;
}

}
(2)编写Mapper类
package com.atguigu.mapreduce.sort;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class FlowCountSortMapper extends Mapper<LongWritable, Text, FlowBean, Text>{

FlowBean bean = new FlowBean();
Text v = new Text();

@Override
protected void map(LongWritable key, Text value, Context context)	throws IOException, InterruptedException {

	// 1 获取一行
	String line = value.toString();
	
	// 2 截取
	String[] fields = line.split("\t");
	
	// 3 封装对象
	String phoneNbr = fields[0];
	long upFlow = Long.parseLong(fields[1]);
	long downFlow = Long.parseLong(fields[2]);
	
	bean.set(upFlow, downFlow);
	v.set(phoneNbr);
	
	// 4 输出
	context.write(bean, v);
}

}
(3)编写Reducer类
package com.atguigu.mapreduce.sort;
import java.io.IOException;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class FlowCountSortReducer extends Reducer<FlowBean, Text, Text, FlowBean>{

@Override
protected void reduce(FlowBean key, Iterable<Text> values, Context context)	throws IOException, InterruptedException {
	
	// 循环输出,避免总流量相同情况
	for (Text value : values) {
		context.write(value, key);
	}
}

}
(4)编写Driver类
package com.atguigu.mapreduce.sort;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class FlowCountSortDriver {

public static void main(String[] args) throws ClassNotFoundException, IOException, InterruptedException {

	// 输入输出路径需要根据自己电脑上实际的输入输出路径设置
	args = new String[]{"e:/output1","e:/output2"};

	// 1 获取配置信息,或者job对象实例
	Configuration configuration = new Configuration();
	Job job = Job.getInstance(configuration);

	// 2 指定本程序的jar包所在的本地路径
	job.setJarByClass(FlowCountSortDriver.class);

	// 3 指定本业务job要使用的mapper/Reducer业务类
	job.setMapperClass(FlowCountSortMapper.class);
	job.setReducerClass(FlowCountSortReducer.class);

	// 4 指定mapper输出数据的kv类型
	job.setMapOutputKeyClass(FlowBean.class);
	job.setMapOutputValueClass(Text.class);

	// 5 指定最终输出的数据的kv类型
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(FlowBean.class);

	// 6 指定job的输入原始文件所在目录
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));
	
	// 7 将job中配置的相关参数,以及job所用的java类所在的jar包, 提交给yarn去运行
	boolean result = job.waitForCompletion(true);
	System.exit(result ? 0 : 1);
}

}
3.3.6 WritableComparable排序案例实操(区内排序)
1.需求
要求每个省份手机号输出的文件中按照总流量内部排序。
2.需求分析
基于前一个需求,增加自定义分区类,分区按照省份手机号设置。

3.案例实操
(1)增加自定义分区类
package com.atguigu.mapreduce.sort;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Partitioner;

public class ProvincePartitioner extends Partitioner<FlowBean, Text> {

@Override
public int getPartition(FlowBean key, Text value, int numPartitions) {
	
	// 1 获取手机号码前三位
	String preNum = value.toString().substring(0, 3);
	
	int partition = 4;
	
	// 2 根据手机号归属地设置分区
	if ("136".equals(preNum)) {
		partition = 0;
	}else if ("137".equals(preNum)) {
		partition = 1;
	}else if ("138".equals(preNum)) {
		partition = 2;
	}else if ("139".equals(preNum)) {
		partition = 3;
	}

	return partition;
}

}
(2)在驱动类中添加分区类
// 加载自定义分区类
job.setPartitionerClass(ProvincePartitioner.class);

// 设置Reducetask个数
job.setNumReduceTasks(5);
3.3.7 Combiner合并

(6)自定义Combiner实现步骤
(a)自定义一个Combiner继承Reducer,重写Reduce方法
public class WordcountCombiner extends Reducer<Text, IntWritable, Text, IntWritable>{

IntWritable v = new IntWritable();

@Override
protected void reduce(Text key, Iterable<IntWritable> values,
		Reducer<Text, IntWritable, Text, IntWritable>.Context context) throws IOException, InterruptedException {
	
	int sum = 0;
	
	// 1 汇总操作
	for (IntWritable value : values) {
		sum += value.get();
	}
	
	v.set(sum);
	
	// 2 写出
	context.write(key, v);
}

}
(b)在Job驱动类中设置:
job.setCombinerClass(WordcountCombiner.class);
3.3.8 Combiner合并案例实操
1.需求
统计过程中对每一个MapTask的输出进行局部汇总,以减小网络传输量即采用Combiner功能。
(1)数据输入

(2)期望输出数据
期望:Combine输入数据多,输出时经过合并,输出数据降低。
2.需求分析

图4-15 Combiner的合并案例
3.案例实操-方案一
1)增加一个WordcountCombiner类继承Reducer
package com.atguigu.mr.combiner;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class WordcountCombiner extends Reducer<Text, IntWritable, Text, IntWritable>{

IntWritable v = new IntWritable();

@Override
protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {

    // 1 汇总
	int sum = 0;

	for(IntWritable value :values){
		sum += value.get();
	}

	v.set(sum);

	// 2 写出
	context.write(key, v);
}

}
2)在WordcountDriver驱动类中指定Combiner
// 指定需要使用combiner,以及用哪个类作为combiner的逻辑
job.setCombinerClass(WordcountCombiner.class);
4.案例实操-方案二
1)将WordcountReducer作为Combiner在WordcountDriver驱动类中指定
// 指定需要使用Combiner,以及用哪个类作为Combiner的逻辑
job.setCombinerClass(WordcountReducer.class);
运行程序,如图4-16,4-17所示

图4-16 未使用前

图4-17 使用后
3.3.9 GroupingComparator分组(辅助排序)
对Reduce阶段的数据根据某一个或几个字段进行分组。
分组排序步骤:
(1)自定义类继承WritableComparator
(2)重写compare()方法
@Override
public int compare(WritableComparable a, WritableComparable b) {
// 比较的业务逻辑
… …

	return result;

}
(3)创建一个构造将比较对象的类传给父类
protected OrderGroupingComparator() {
super(OrderBean.class, true);
}
3.3.10 GroupingComparator分组案例实操
1.需求
有如下订单数据
表4-2 订单数据
订单id 商品id 成交金额
0000001 Pdt_01 222.8
Pdt_02 33.8
0000002 Pdt_03 522.8
Pdt_04 122.4
Pdt_05 722.4
0000003 Pdt_06 232.8
Pdt_02 33.8
现在需要求出每一个订单中最贵的商品。
(1)输入数据

(2)期望输出数据
1 222.8
2 722.4
3 232.8
2.需求分析
(1)利用“订单id和成交金额”作为key,可以将Map阶段读取到的所有订单数据按照id升序排序,如果id相同再按照金额降序排序,发送到Reduce。
(2)在Reduce端利用groupingComparator将订单id相同的kv聚合成组,然后取第一个即是该订单中最贵商品,如图4-18所示。

图4-18 过程分析
3.代码实现
(1)定义订单信息OrderBean类
package com.atguigu.mapreduce.order;
import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;
import org.apache.hadoop.io.WritableComparable;

public class OrderBean implements WritableComparable {

private int order_id; // 订单id号
private double price; // 价格

public OrderBean() {
	super();
}

public OrderBean(int order_id, double price) {
	super();
	this.order_id = order_id;
	this.price = price;
}

@Override
public void write(DataOutput out) throws IOException {
	out.writeInt(order_id);
	out.writeDouble(price);
}

@Override
public void readFields(DataInput in) throws IOException {
	order_id = in.readInt();
	price = in.readDouble();
}

@Override
public String toString() {
	return order_id + "\t" + price;
}

public int getOrder_id() {
	return order_id;
}

public void setOrder_id(int order_id) {
	this.order_id = order_id;
}

public double getPrice() {
	return price;
}

public void setPrice(double price) {
	this.price = price;
}

// 二次排序
@Override
public int compareTo(OrderBean o) {

	int result;

	if (order_id > o.getOrder_id()) {
		result = 1;
	} else if (order_id < o.getOrder_id()) {
		result = -1;
	} else {
		// 价格倒序排序
		result = price > o.getPrice() ? -1 : 1;
	}

	return result;
}

}
(2)编写OrderSortMapper类
package com.atguigu.mapreduce.order;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class OrderMapper extends Mapper<LongWritable, Text, OrderBean, NullWritable> {

OrderBean k = new OrderBean();

@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
	
	// 1 获取一行
	String line = value.toString();
	
	// 2 截取
	String[] fields = line.split("\t");
	
	// 3 封装对象
	k.setOrder_id(Integer.parseInt(fields[0]));
	k.setPrice(Double.parseDouble(fields[2]));
	
	// 4 写出
	context.write(k, NullWritable.get());
}

}
(3)编写OrderSortGroupingComparator类
package com.atguigu.mapreduce.order;
import org.apache.hadoop.io.WritableComparable;
import org.apache.hadoop.io.WritableComparator;

public class OrderGroupingComparator extends WritableComparator {

protected OrderGroupingComparator() {
	super(OrderBean.class, true);
}

@Override
public int compare(WritableComparable a, WritableComparable b) {

	OrderBean aBean = (OrderBean) a;
	OrderBean bBean = (OrderBean) b;

	int result;
	if (aBean.getOrder_id() > bBean.getOrder_id()) {
		result = 1;
	} else if (aBean.getOrder_id() < bBean.getOrder_id()) {
		result = -1;
	} else {
		result = 0;
	}

	return result;
}

}
(4)编写OrderSortReducer类
package com.atguigu.mapreduce.order;
import java.io.IOException;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.Reducer;

public class OrderReducer extends Reducer<OrderBean, NullWritable, OrderBean, NullWritable> {

@Override
protected void reduce(OrderBean key, Iterable<NullWritable> values, Context context)		throws IOException, InterruptedException {
	
	context.write(key, NullWritable.get());
}

}
(5)编写OrderSortDriver类
package com.atguigu.mapreduce.order;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class OrderDriver {

public static void main(String[] args) throws Exception, IOException {

// 输入输出路径需要根据自己电脑上实际的输入输出路径设置
args = new String[]{“e:/input/inputorder” , “e:/output1”};

	// 1 获取配置信息
	Configuration conf = new Configuration();
	Job job = Job.getInstance(conf);

	// 2 设置jar包加载路径
	job.setJarByClass(OrderDriver.class);

	// 3 加载map/reduce类
	job.setMapperClass(OrderMapper.class);
	job.setReducerClass(OrderReducer.class);

	// 4 设置map输出数据key和value类型
	job.setMapOutputKeyClass(OrderBean.class);
	job.setMapOutputValueClass(NullWritable.class);

	// 5 设置最终输出数据的key和value类型
	job.setOutputKeyClass(OrderBean.class);
	job.setOutputValueClass(NullWritable.class);

	// 6 设置输入数据和输出数据路径
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	// 8 设置reduce端的分组
job.setGroupingComparatorClass(OrderGroupingComparator.class);

	// 7 提交
	boolean result = job.waitForCompletion(true);
	System.exit(result ? 0 : 1);
}

}
3.4 MapTask工作机制
MapTask工作机制如图4-12所示。

图4-12 MapTask工作机制
(1)Read阶段:MapTask通过用户编写的RecordReader,从输入InputSplit中解析出一个个key/value。
(2)Map阶段:该节点主要是将解析出的key/value交给用户编写map()函数处理,并产生一系列新的key/value。
(3)Collect收集阶段:在用户编写map()函数中,当数据处理完成后,一般会调用OutputCollector.collect()输出结果。在该函数内部,它会将生成的key/value分区(调用Partitioner),并写入一个环形内存缓冲区中。
(4)Spill阶段:即“溢写”,当环形缓冲区满后,MapReduce会将数据写到本地磁盘上,生成一个临时文件。需要注意的是,将数据写入本地磁盘之前,先要对数据进行一次本地排序,并在必要时对数据进行合并、压缩等操作。
溢写阶段详情:
步骤1:利用快速排序算法对缓存区内的数据进行排序,排序方式是,先按照分区编号Partition进行排序,然后按照key进行排序。这样,经过排序后,数据以分区为单位聚集在一起,且同一分区内所有数据按照key有序。
步骤2:按照分区编号由小到大依次将每个分区中的数据写入任务工作目录下的临时文件output/spillN.out(N表示当前溢写次数)中。如果用户设置了Combiner,则写入文件之前,对每个分区中的数据进行一次聚集操作。
步骤3:将分区数据的元信息写到内存索引数据结构SpillRecord中,其中每个分区的元信息包括在临时文件中的偏移量、压缩前数据大小和压缩后数据大小。如果当前内存索引大小超过1MB,则将内存索引写到文件output/spillN.out.index中。
(5)Combine阶段:当所有数据处理完成后,MapTask对所有临时文件进行一次合并,以确保最终只会生成一个数据文件。
当所有数据处理完后,MapTask会将所有临时文件合并成一个大文件,并保存到文件output/file.out中,同时生成相应的索引文件output/file.out.index。
在进行文件合并过程中,MapTask以分区为单位进行合并。对于某个分区,它将采用多轮递归合并的方式。每轮合并io.sort.factor(默认10)个文件,并将产生的文件重新加入待合并列表中,对文件排序后,重复以上过程,直到最终得到一个大文件。
让每个MapTask最终只生成一个数据文件,可避免同时打开大量文件和同时读取大量小文件产生的随机读取带来的开销。
3.5 ReduceTask工作机制
1.ReduceTask工作机制
ReduceTask工作机制,如图4-19所示。

图4-19 ReduceTask工作机制
(1)Copy阶段:ReduceTask从各个MapTask上远程拷贝一片数据,并针对某一片数据,如果其大小超过一定阈值,则写到磁盘上,否则直接放到内存中。
(2)Merge阶段:在远程拷贝数据的同时,ReduceTask启动了两个后台线程对内存和磁盘上的文件进行合并,以防止内存使用过多或磁盘上文件过多。
(3)Sort阶段:按照MapReduce语义,用户编写reduce()函数输入数据是按key进行聚集的一组数据。为了将key相同的数据聚在一起,Hadoop采用了基于排序的策略。由于各个MapTask已经实现对自己的处理结果进行了局部排序,因此,ReduceTask只需对所有数据进行一次归并排序即可。
(4)Reduce阶段:reduce()函数将计算结果写到HDFS上。
2.设置ReduceTask并行度(个数)
ReduceTask的并行度同样影响整个Job的执行并发度和执行效率,但与MapTask的并发数由切片数决定不同,ReduceTask数量的决定是可以直接手动设置:
// 默认值是1,手动设置为4
job.setNumReduceTasks(4);
3.实验:测试ReduceTask多少合适
(1)实验环境:1个Master节点,16个Slave节点:CPU:8GHZ,内存: 2G
(2)实验结论:
表4-3 改变ReduceTask (数据量为1GB)
MapTask =16
ReduceTask 1 5 10 15 16 20 25 30 45 60
总时间 892 146 110 92 88 100 128 101 145 104
4.注意事项

3.6 OutputFormat数据输出
3.6.1 OutputFormat接口实现类

3.6.2 自定义OutputFormat

3.6.3 自定义OutputFormat案例实操
1.需求
过滤输入的log日志,包含atguigu的网站输出到e:/atguigu.log,不包含atguigu的网站输出到e:/other.log。
(1)输入数据

(2)期望输出数据

2.需求分析

3.案例实操
(1)编写FilterMapper类
package com.atguigu.mapreduce.outputformat;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class FilterMapper extends Mapper<LongWritable, Text, Text, NullWritable>{

@Override
protected void map(LongWritable key, Text value, Context context)	throws IOException, InterruptedException {

	// 写出
	context.write(value, NullWritable.get());
}

}
(2)编写FilterReducer类
package com.atguigu.mapreduce.outputformat;
import java.io.IOException;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class FilterReducer extends Reducer<Text, NullWritable, Text, NullWritable> {

Text k = new Text();

@Override
protected void reduce(Text key, Iterable<NullWritable> values, Context context)		throws IOException, InterruptedException {

   // 1 获取一行
	String line = key.toString();

   // 2 拼接
	line = line + "\r\n";

   // 3 设置key
   k.set(line);

   // 4 输出
	context.write(k, NullWritable.get());
}

}
(3)自定义一个OutputFormat类
package com.atguigu.mapreduce.outputformat;
import java.io.IOException;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.RecordWriter;
import org.apache.hadoop.mapreduce.TaskAttemptContext;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class FilterOutputFormat extends FileOutputFormat<Text, NullWritable>{

@Override
public RecordWriter<Text, NullWritable> getRecordWriter(TaskAttemptContext job)			throws IOException, InterruptedException {

	// 创建一个RecordWriter
	return new FilterRecordWriter(job);
}

}
(4)编写RecordWriter类
package com.atguigu.mapreduce.outputformat;
import java.io.IOException;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.RecordWriter;
import org.apache.hadoop.mapreduce.TaskAttemptContext;

public class FilterRecordWriter extends RecordWriter<Text, NullWritable> {

FSDataOutputStream atguiguOut = null;
FSDataOutputStream otherOut = null;

public FilterRecordWriter(TaskAttemptContext job) {

	// 1 获取文件系统
	FileSystem fs;

	try {
		fs = FileSystem.get(job.getConfiguration());

		// 2 创建输出文件路径
		Path atguiguPath = new Path("e:/atguigu.log");
		Path otherPath = new Path("e:/other.log");

		// 3 创建输出流
		atguiguOut = fs.create(atguiguPath);
		otherOut = fs.create(otherPath);
	} catch (IOException e) {
		e.printStackTrace();
	}
}

@Override
public void write(Text key, NullWritable value) throws IOException, InterruptedException {

	// 判断是否包含“atguigu”输出到不同文件
	if (key.toString().contains("atguigu")) {
		atguiguOut.write(key.toString().getBytes());
	} else {
		otherOut.write(key.toString().getBytes());
	}
}

@Override
public void close(TaskAttemptContext context) throws IOException, InterruptedException {

	// 关闭资源

IOUtils.closeStream(atguiguOut);
IOUtils.closeStream(otherOut);
}
}
(5)编写FilterDriver类
package com.atguigu.mapreduce.outputformat;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class FilterDriver {

public static void main(String[] args) throws Exception {

// 输入输出路径需要根据自己电脑上实际的输入输出路径设置
args = new String[] { “e:/input/inputoutputformat”, “e:/output2” };

	Configuration conf = new Configuration();
	Job job = Job.getInstance(conf);

	job.setJarByClass(FilterDriver.class);
	job.setMapperClass(FilterMapper.class);
	job.setReducerClass(FilterReducer.class);

	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(NullWritable.class);
	
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(NullWritable.class);

	// 要将自定义的输出格式组件设置到job中
	job.setOutputFormatClass(FilterOutputFormat.class);

	FileInputFormat.setInputPaths(job, new Path(args[0]));

	// 虽然我们自定义了outputformat,但是因为我们的outputformat继承自fileoutputformat
	// 而fileoutputformat要输出一个_SUCCESS文件,所以,在这还得指定一个输出目录
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	boolean result = job.waitForCompletion(true);
	System.exit(result ? 0 : 1);
}

}
3.7 Join多种应用
3.7.1 Reduce Join

3.7.2 Reduce Join案例实操
1.需求
表4-4 订单数据表t_order
id pid amount
1001 01 1
1002 02 2
1003 03 3
1004 01 4
1005 02 5
1006 03 6
表4-5 商品信息表t_product
pid pname
01 小米
02 华为
03 格力
将商品信息表中数据根据商品pid合并到订单数据表中。
表4-6 最终数据形式
id pname amount
1001 小米 1
1004 小米 4
1002 华为 2
1005 华为 5
1003 格力 3
1006 格力 6
2.需求分析
通过将关联条件作为Map输出的key,将两表满足Join条件的数据并携带数据所来源的文件信息,发往同一个ReduceTask,在Reduce中进行数据的串联,如图4-20所示。

图4-20 Reduce端表合并
3.代码实现
1)创建商品和订合并后的Bean类
package com.atguigu.mapreduce.table;
import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;
import org.apache.hadoop.io.Writable;

public class TableBean implements Writable {

private String order_id; // 订单id
private String p_id;      // 产品id
private int amount;       // 产品数量
private String pname;     // 产品名称
private String flag;      // 表的标记

public TableBean() {
	super();
}

public TableBean(String order_id, String p_id, int amount, String pname, String flag) {

	super();

	this.order_id = order_id;
	this.p_id = p_id;
	this.amount = amount;
	this.pname = pname;
	this.flag = flag;
}

public String getFlag() {
	return flag;
}

public void setFlag(String flag) {
	this.flag = flag;
}

public String getOrder_id() {
	return order_id;
}

public void setOrder_id(String order_id) {
	this.order_id = order_id;
}

public String getP_id() {
	return p_id;
}

public void setP_id(String p_id) {
	this.p_id = p_id;
}

public int getAmount() {
	return amount;
}

public void setAmount(int amount) {
	this.amount = amount;
}

public String getPname() {
	return pname;
}

public void setPname(String pname) {
	this.pname = pname;
}

@Override
public void write(DataOutput out) throws IOException {
	out.writeUTF(order_id);
	out.writeUTF(p_id);
	out.writeInt(amount);
	out.writeUTF(pname);
	out.writeUTF(flag);
}

@Override
public void readFields(DataInput in) throws IOException {
	this.order_id = in.readUTF();
	this.p_id = in.readUTF();
	this.amount = in.readInt();
	this.pname = in.readUTF();
	this.flag = in.readUTF();
}

@Override
public String toString() {
	return order_id + "\t" + pname + "\t" + amount + "\t" ;
}

}
2)编写TableMapper类
package com.atguigu.mapreduce.table;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.lib.input.FileSplit;

public class TableMapper extends Mapper<LongWritable, Text, Text, TableBean>{

String name;
TableBean bean = new TableBean();
Text k = new Text();

@Override
protected void setup(Context context) throws IOException, InterruptedException {

	// 1 获取输入文件切片
	FileSplit split = (FileSplit) context.getInputSplit();

	// 2 获取输入文件名称
	name = split.getPath().getName();
}

@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
	
	// 1 获取输入数据
	String line = value.toString();
	
	// 2 不同文件分别处理
	if (name.startsWith("order")) {// 订单表处理

		// 2.1 切割
		String[] fields = line.split("\t");
		
		// 2.2 封装bean对象
		bean.setOrder_id(fields[0]);
		bean.setP_id(fields[1]);
		bean.setAmount(Integer.parseInt(fields[2]));
		bean.setPname("");
		bean.setFlag("order");
		
		k.set(fields[1]);
	}else {// 产品表处理

		// 2.3 切割
		String[] fields = line.split("\t");
		
		// 2.4 封装bean对象
		bean.setP_id(fields[0]);
		bean.setPname(fields[1]);
		bean.setFlag("pd");
		bean.setAmount(0);
		bean.setOrder_id("");
		
		k.set(fields[0]);
	}

	// 3 写出
	context.write(k, bean);
}

}
3)编写TableReducer类
package com.atguigu.mapreduce.table;
import java.io.IOException;
import java.util.ArrayList;
import org.apache.commons.beanutils.BeanUtils;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class TableReducer extends Reducer<Text, TableBean, TableBean, NullWritable> {

@Override
protected void reduce(Text key, Iterable<TableBean> values, Context context)	throws IOException, InterruptedException {

	// 1准备存储订单的集合
	ArrayList<TableBean> orderBeans = new ArrayList<>();

// 2 准备bean对象
TableBean pdBean = new TableBean();

	for (TableBean bean : values) {

		if ("order".equals(bean.getFlag())) {// 订单表

			// 拷贝传递过来的每条订单数据到集合中
			TableBean orderBean = new TableBean();

			try {
				BeanUtils.copyProperties(orderBean, bean);
			} catch (Exception e) {
				e.printStackTrace();
			}

			orderBeans.add(orderBean);
		} else {// 产品表

			try {
				// 拷贝传递过来的产品表到内存中
				BeanUtils.copyProperties(pdBean, bean);
			} catch (Exception e) {
				e.printStackTrace();
			}
		}
	}

	// 3 表的拼接
	for(TableBean bean:orderBeans){

		bean.setPname (pdBean.getPname());
		
		// 4 数据写出去
		context.write(bean, NullWritable.get());
	}
}

}
4)编写TableDriver类
package com.atguigu.mapreduce.table;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class TableDriver {

public static void main(String[] args) throws Exception {

// 0 根据自己电脑路径重新配置
args = new String[]{“e:/input/inputtable”,“e:/output1”};

// 1 获取配置信息,或者job对象实例
Configuration configuration = new Configuration();
Job job = Job.getInstance(configuration);

	// 2 指定本程序的jar包所在的本地路径
	job.setJarByClass(TableDriver.class);

	// 3 指定本业务job要使用的Mapper/Reducer业务类
	job.setMapperClass(TableMapper.class);
	job.setReducerClass(TableReducer.class);

	// 4 指定Mapper输出数据的kv类型
	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(TableBean.class);

	// 5 指定最终输出的数据的kv类型
	job.setOutputKeyClass(TableBean.class);
	job.setOutputValueClass(NullWritable.class);

	// 6 指定job的输入原始文件所在目录
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	// 7 将job中配置的相关参数,以及job所用的java类所在的jar包, 提交给yarn去运行
	boolean result = job.waitForCompletion(true);
	System.exit(result ? 0 : 1);
}

}
4.测试
运行程序查看结果
1001 小米 1
1001 小米 1
1002 华为 2
1002 华为 2
1003 格力 3
1003 格力 3
5.总结

3.7.3 Map Join
1.使用场景
Map Join适用于一张表十分小、一张表很大的场景。
2.优点
思考:在Reduce端处理过多的表,非常容易产生数据倾斜。怎么办?
在Map端缓存多张表,提前处理业务逻辑,这样增加Map端业务,减少Reduce端数据的压力,尽可能的减少数据倾斜。
3.具体办法:采用DistributedCache
(1)在Mapper的setup阶段,将文件读取到缓存集合中。
(2)在驱动函数中加载缓存。
// 缓存普通文件到Task运行节点。
job.addCacheFile(new URI(“file://e:/cache/pd.txt”));
3.7.4 Map Join案例实操
1.需求
表4-4 订单数据表t_order
id pid amount
1001 01 1
1002 02 2
1003 03 3
1004 01 4
1005 02 5
1006 03 6
表4-5 商品信息表t_product
pid pname
01 小米
02 华为
03 格力
将商品信息表中数据根据商品pid合并到订单数据表中。
表4-6 最终数据形式
id pname amount
1001 小米 1
1004 小米 4
1002 华为 2
1005 华为 5
1003 格力 3
1006 格力 6
2.需求分析
MapJoin适用于关联表中有小表的情形。

图4-21 Map端表合并
3.实现代码
(1)先在驱动模块中添加缓存文件
package test;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class DistributedCacheDriver {

public static void main(String[] args) throws Exception {

// 0 根据自己电脑路径重新配置
args = new String[]{“e:/input/inputtable2”, “e:/output1”};

// 1 获取job信息
Configuration configuration = new Configuration();
Job job = Job.getInstance(configuration);

	// 2 设置加载jar包路径
	job.setJarByClass(DistributedCacheDriver.class);

	// 3 关联map
	job.setMapperClass(DistributedCacheMapper.class);

// 4 设置最终输出数据类型
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(NullWritable.class);

	// 5 设置输入输出路径
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	// 6 加载缓存数据
	job.addCacheFile(new URI("file:///e:/input/inputcache/pd.txt"));
	
	// 7 Map端Join的逻辑不需要Reduce阶段,设置reduceTask数量为0
	job.setNumReduceTasks(0);

	// 8 提交
	boolean result = job.waitForCompletion(true);
	System.exit(result ? 0 : 1);
}

}
(2)读取缓存的文件数据
package test;
import java.io.BufferedReader;
import java.io.FileInputStream;
import java.io.IOException;
import java.io.InputStreamReader;
import java.util.HashMap;
import java.util.Map;
import org.apache.commons.lang.StringUtils;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class DistributedCacheMapper extends Mapper<LongWritable, Text, Text, NullWritable>{

Map<String, String> pdMap = new HashMap<>();

@Override
protected void setup(Mapper<LongWritable, Text, Text, NullWritable>.Context context) throws IOException, InterruptedException {

	// 1 获取缓存的文件
	URI[] cacheFiles = context.getCacheFiles();
	String path = cacheFiles[0].getPath().toString();
	
	BufferedReader reader = new BufferedReader(new InputStreamReader(new FileInputStream(path), "UTF-8"));
	
	String line;
	while(StringUtils.isNotEmpty(line = reader.readLine())){

		// 2 切割
		String[] fields = line.split("\t");
		
		// 3 缓存数据到集合
		pdMap.put(fields[0], fields[1]);
	}
	
	// 4 关流
	reader.close();
}

Text k = new Text();

@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

	// 1 获取一行
	String line = value.toString();
	
	// 2 截取
	String[] fields = line.split("\t");
	
	// 3 获取产品id
	String pId = fields[1];
	
	// 4 获取商品名称
	String pdName = pdMap.get(pId);
	
	// 5 拼接
	k.set(line + "\t"+ pdName);
	
	// 6 写出
	context.write(k, NullWritable.get());
}

}
3.8 计数器应用

3.9 数据清洗(ETL)
在运行核心业务MapReduce程序之前,往往要先对数据进行清洗,清理掉不符合用户要求的数据。清理的过程往往只需要运行Mapper程序,不需要运行Reduce程序。
3.9.1 数据清洗案例实操-简单解析版
1.需求
去除日志中字段长度小于等于11的日志。
(1)输入数据

(2)期望输出数据
每行字段长度都大于11。
2.需求分析
需要在Map阶段对输入的数据根据规则进行过滤清洗。
3.实现代码
(1)编写LogMapper类
package com.atguigu.mapreduce.weblog;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class LogMapper extends Mapper<LongWritable, Text, Text, NullWritable>{

Text k = new Text();

@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
	
	// 1 获取1行数据
	String line = value.toString();
	
	// 2 解析日志
	boolean result = parseLog(line,context);
	
	// 3 日志不合法退出
	if (!result) {
		return;
	}
	
	// 4 设置key
	k.set(line);
	
	// 5 写出数据
	context.write(k, NullWritable.get());
}

// 2 解析日志
private boolean parseLog(String line, Context context) {

	// 1 截取
	String[] fields = line.split(" ");
	
	// 2 日志长度大于11的为合法
	if (fields.length > 11) {

		// 系统计数器
		context.getCounter("map", "true").increment(1);
		return true;
	}else {
		context.getCounter("map", "false").increment(1);
		return false;
	}
}

}

(2)编写LogDriver类
package com.atguigu.mapreduce.weblog;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class LogDriver {

public static void main(String[] args) throws Exception {

// 输入输出路径需要根据自己电脑上实际的输入输出路径设置
args = new String[] { “e:/input/inputlog”, “e:/output1” };

	// 1 获取job信息
	Configuration conf = new Configuration();
	Job job = Job.getInstance(conf);

	// 2 加载jar包
	job.setJarByClass(LogDriver.class);

	// 3 关联map
	job.setMapperClass(LogMapper.class);

	// 4 设置最终输出类型
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(NullWritable.class);

	// 设置reducetask个数为0
	job.setNumReduceTasks(0);

	// 5 设置输入和输出路径
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	// 6 提交
	job.waitForCompletion(true);
}

}
3.9.2 数据清洗案例实操-复杂解析版
1.需求
对Web访问日志中的各字段识别切分,去除日志中不合法的记录。根据清洗规则,输出过滤后的数据。
(1)输入数据

(2)期望输出数据
都是合法的数据
2.实现代码
(1)定义一个bean,用来记录日志数据中的各数据字段
package com.atguigu.mapreduce.log;

public class LogBean {
private String remote_addr;// 记录客户端的ip地址
private String remote_user;// 记录客户端用户名称,忽略属性"-"
private String time_local;// 记录访问时间与时区
private String request;// 记录请求的url与http协议
private String status;// 记录请求状态;成功是200
private String body_bytes_sent;// 记录发送给客户端文件主体内容大小
private String http_referer;// 用来记录从那个页面链接访问过来的
private String http_user_agent;// 记录客户浏览器的相关信息

private boolean valid = true;// 判断数据是否合法

public String getRemote_addr() {
	return remote_addr;
}

public void setRemote_addr(String remote_addr) {
	this.remote_addr = remote_addr;
}

public String getRemote_user() {
	return remote_user;
}

public void setRemote_user(String remote_user) {
	this.remote_user = remote_user;
}

public String getTime_local() {
	return time_local;
}

public void setTime_local(String time_local) {
	this.time_local = time_local;
}

public String getRequest() {
	return request;
}

public void setRequest(String request) {
	this.request = request;
}

public String getStatus() {
	return status;
}

public void setStatus(String status) {
	this.status = status;
}

public String getBody_bytes_sent() {
	return body_bytes_sent;
}

public void setBody_bytes_sent(String body_bytes_sent) {
	this.body_bytes_sent = body_bytes_sent;
}

public String getHttp_referer() {
	return http_referer;
}

public void setHttp_referer(String http_referer) {
	this.http_referer = http_referer;
}

public String getHttp_user_agent() {
	return http_user_agent;
}

public void setHttp_user_agent(String http_user_agent) {
	this.http_user_agent = http_user_agent;
}

public boolean isValid() {
	return valid;
}

public void setValid(boolean valid) {
	this.valid = valid;
}

@Override
public String toString() {

	StringBuilder sb = new StringBuilder();
	sb.append(this.valid);
	sb.append("\001").append(this.remote_addr);
	sb.append("\001").append(this.remote_user);
	sb.append("\001").append(this.time_local);
	sb.append("\001").append(this.request);
	sb.append("\001").append(this.status);
	sb.append("\001").append(this.body_bytes_sent);
	sb.append("\001").append(this.http_referer);
	sb.append("\001").append(this.http_user_agent);
	
	return sb.toString();
}

}
(2)编写LogMapper类
package com.atguigu.mapreduce.log;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class LogMapper extends Mapper<LongWritable, Text, Text, NullWritable>{
Text k = new Text();

@Override
protected void map(LongWritable key, Text value, Context context)	throws IOException, InterruptedException {

	// 1 获取1行
	String line = value.toString();
	
	// 2 解析日志是否合法
	LogBean bean = parseLog(line);
	
	if (!bean.isValid()) {
		return;
	}
	
	k.set(bean.toString());
	
	// 3 输出
	context.write(k, NullWritable.get());
}

// 解析日志
private LogBean parseLog(String line) {

	LogBean logBean = new LogBean();
	
	// 1 截取
	String[] fields = line.split(" ");
	
	if (fields.length > 11) {

		// 2封装数据
		logBean.setRemote_addr(fields[0]);
		logBean.setRemote_user(fields[1]);
		logBean.setTime_local(fields[3].substring(1));
		logBean.setRequest(fields[6]);
		logBean.setStatus(fields[8]);
		logBean.setBody_bytes_sent(fields[9]);
		logBean.setHttp_referer(fields[10]);
		
		if (fields.length > 12) {
			logBean.setHttp_user_agent(fields[11] + " "+ fields[12]);
		}else {
			logBean.setHttp_user_agent(fields[11]);
		}
		
		// 大于400,HTTP错误
		if (Integer.parseInt(logBean.getStatus()) >= 400) {
			logBean.setValid(false);
		}
	}else {
		logBean.setValid(false);
	}
	
	return logBean;
}

}
(3)编写LogDriver类
package com.atguigu.mapreduce.log;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class LogDriver {
public static void main(String[] args) throws Exception {

// 1 获取job信息
Configuration conf = new Configuration();
Job job = Job.getInstance(conf);

	// 2 加载jar包
	job.setJarByClass(LogDriver.class);

	// 3 关联map
	job.setMapperClass(LogMapper.class);

	// 4 设置最终输出类型
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(NullWritable.class);

	// 5 设置输入和输出路径
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	// 6 提交
	job.waitForCompletion(true);
}

}
3.10 MapReduce开发总结
在编写MapReduce程序时,需要考虑如下几个方面:

第4章 Hadoop数据压缩
4.1 概述

4.2 MR支持的压缩编码
表4-7
压缩格式 hadoop自带? 算法 文件扩展名 是否可切分 换成压缩格式后,原来的程序是否需要修改
DEFLATE 是,直接使用 DEFLATE .deflate 否 和文本处理一样,不需要修改
Gzip 是,直接使用 DEFLATE .gz 否 和文本处理一样,不需要修改
bzip2 是,直接使用 bzip2 .bz2 是 和文本处理一样,不需要修改
LZO 否,需要安装 LZO .lzo 是 需要建索引,还需要指定输入格式
Snappy 否,需要安装 Snappy .snappy 否 和文本处理一样,不需要修改
为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器,如下表所示。
表4-8
压缩格式 对应的编码/解码器
DEFLATE org.apache.hadoop.io.compress.DefaultCodec
gzip org.apache.hadoop.io.compress.GzipCodec
bzip2 org.apache.hadoop.io.compress.BZip2Codec
LZO com.hadoop.compression.lzo.LzopCodec
Snappy org.apache.hadoop.io.compress.SnappyCodec
压缩性能的比较
表4-9
压缩算法 原始文件大小 压缩文件大小 压缩速度 解压速度
gzip 8.3GB 1.8GB 17.5MB/s 58MB/s
bzip2 8.3GB 1.1GB 2.4MB/s 9.5MB/s
LZO 8.3GB 2.9GB 49.3MB/s 74.6MB/s
http://google.github.io/snappy/
On a single core of a Core i7 processor in 64-bit mode, Snappy compresses at about 250 MB/sec or more and decompresses at about 500 MB/sec or more.
4.3 压缩方式选择
4.3.1 Gzip压缩

4.3.2 Bzip2压缩

4.3.3 Lzo压缩

4.3.4 Snappy压缩

4.4 压缩位置选择
压缩可以在MapReduce作用的任意阶段启用,如图4-22所示。

图4-22 MapReduce数据压缩
4.5 压缩参数配置
要在Hadoop中启用压缩,可以配置如下参数:
表4-10 配置参数
参数 默认值 阶段 建议
io.compression.codecs
(在core-site.xml中配置) org.apache.hadoop.io.compress.DefaultCodec, org.apache.hadoop.io.compress.GzipCodec, org.apache.hadoop.io.compress.BZip2Codec
输入压缩 Hadoop使用文件扩展名判断是否支持某种编解码器
mapreduce.map.output.compress(在mapred-site.xml中配置) false mapper输出 这个参数设为true启用压缩
mapreduce.map.output.compress.codec(在mapred-site.xml中配置) org.apache.hadoop.io.compress.DefaultCodec mapper输出 企业多使用LZO或Snappy编解码器在此阶段压缩数据
mapreduce.output.fileoutputformat.compress(在mapred-site.xml中配置) false reducer输出 这个参数设为true启用压缩
mapreduce.output.fileoutputformat.compress.codec(在mapred-site.xml中配置) org.apache.hadoop.io.compress. DefaultCodec reducer输出 使用标准工具或者编解码器,如gzip和bzip2
mapreduce.output.fileoutputformat.compress.type(在mapred-site.xml中配置) RECORD reducer输出 SequenceFile输出使用的压缩类型:NONE和BLOCK
4.6 压缩实操案例
4.6.1 数据流的压缩和解压缩
测试一下如下压缩方式:
表4-11
DEFLATE org.apache.hadoop.io.compress.DefaultCodec
gzip org.apache.hadoop.io.compress.GzipCodec
bzip2 org.apache.hadoop.io.compress.BZip2Codec
package com.atguigu.mapreduce.compress;
import java.io.File;
import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.FileOutputStream;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.io.compress.CompressionCodec;
import org.apache.hadoop.io.compress.CompressionCodecFactory;
import org.apache.hadoop.io.compress.CompressionInputStream;
import org.apache.hadoop.io.compress.CompressionOutputStream;
import org.apache.hadoop.util.ReflectionUtils;

public class TestCompress {

public static void main(String[] args) throws Exception {
	compress("e:/hello.txt","org.apache.hadoop.io.compress.BZip2Codec");

// decompress(“e:/hello.txt.bz2”);
}

// 1、压缩
private static void compress(String filename, String method) throws Exception {
	
	// (1)获取输入流
	FileInputStream fis = new FileInputStream(new File(filename));
	
	Class codecClass = Class.forName(method);
	
	CompressionCodec codec = (CompressionCodec) ReflectionUtils.newInstance(codecClass, new Configuration());
	
	// (2)获取输出流
	FileOutputStream fos = new FileOutputStream(new File(filename + codec.getDefaultExtension()));
	CompressionOutputStream cos = codec.createOutputStream(fos);
	
	// (3)流的对拷
	IOUtils.copyBytes(fis, cos, 1024*1024*5, false);
	
	// (4)关闭资源
	cos.close();
	fos.close();

fis.close();
}

// 2、解压缩
private static void decompress(String filename) throws FileNotFoundException, IOException {
	
	// (0)校验是否能解压缩
	CompressionCodecFactory factory = new CompressionCodecFactory(new Configuration());

	CompressionCodec codec = factory.getCodec(new Path(filename));
	
	if (codec == null) {
		System.out.println("cannot find codec for file " + filename);
		return;
	}
	
	// (1)获取输入流
	CompressionInputStream cis = codec.createInputStream(new FileInputStream(new File(filename)));
	
	// (2)获取输出流
	FileOutputStream fos = new FileOutputStream(new File(filename + ".decoded"));
	
	// (3)流的对拷
	IOUtils.copyBytes(cis, fos, 1024*1024*5, false);
	
	// (4)关闭资源
	cis.close();
	fos.close();
}

}
4.6.2 Map输出端采用压缩
即使你的MapReduce的输入输出文件都是未压缩的文件,你仍然可以对Map任务的中间结果输出做压缩,因为它要写在硬盘并且通过网络传输到Reduce节点,对其压缩可以提高很多性能,这些工作只要设置两个属性即可,我们来看下代码怎么设置。
1.给大家提供的Hadoop源码支持的压缩格式有:BZip2Codec 、DefaultCodec
package com.atguigu.mapreduce.compress;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.io.compress.BZip2Codec;
import org.apache.hadoop.io.compress.CompressionCodec;
import org.apache.hadoop.io.compress.GzipCodec;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class WordCountDriver {

public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {

	Configuration configuration = new Configuration();

	// 开启map端输出压缩
configuration.setBoolean("mapreduce.map.output.compress", true);
	// 设置map端输出压缩方式
configuration.setClass("mapreduce.map.output.compress.codec", BZip2Codec.class, CompressionCodec.class);

	Job job = Job.getInstance(configuration);

	job.setJarByClass(WordCountDriver.class);

	job.setMapperClass(WordCountMapper.class);
	job.setReducerClass(WordCountReducer.class);

	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(IntWritable.class);

	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(IntWritable.class);

	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	boolean result = job.waitForCompletion(true);

	System.exit(result ? 1 : 0);
}

}
2.Mapper保持不变
package com.atguigu.mapreduce.compress;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable>{

Text k = new Text();
IntWritable v = new IntWritable(1);

@Override
protected void map(LongWritable key, Text value, Context context)throws IOException, InterruptedException {

	// 1 获取一行
	String line = value.toString();

	// 2 切割
	String[] words = line.split(" ");

	// 3 循环写出
	for(String word:words){

k.set(word);
context.write(k, v);
}
}
}
3.Reducer保持不变
package com.atguigu.mapreduce.compress;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable>{

IntWritable v = new IntWritable();

@Override
protected void reduce(Text key, Iterable<IntWritable> values,
		Context context) throws IOException, InterruptedException {
	
	int sum = 0;

	// 1 汇总
	for(IntWritable value:values){
		sum += value.get();
	}
	
    v.set(sum);

    // 2 输出
	context.write(key, v);
}

}
4.6.3 Reduce输出端采用压缩
基于WordCount案例处理。
1.修改驱动
package com.atguigu.mapreduce.compress;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.io.compress.BZip2Codec;
import org.apache.hadoop.io.compress.DefaultCodec;
import org.apache.hadoop.io.compress.GzipCodec;
import org.apache.hadoop.io.compress.Lz4Codec;
import org.apache.hadoop.io.compress.SnappyCodec;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class WordCountDriver {

public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
	
	Configuration configuration = new Configuration();
	
	Job job = Job.getInstance(configuration);
	
	job.setJarByClass(WordCountDriver.class);
	
	job.setMapperClass(WordCountMapper.class);
	job.setReducerClass(WordCountReducer.class);
	
	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(IntWritable.class);
	
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(IntWritable.class);
	
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));
	
	// 设置reduce端输出压缩开启
	FileOutputFormat.setCompressOutput(job, true);
	
	// 设置压缩的方式
    FileOutputFormat.setOutputCompressorClass(job, BZip2Codec.class); 

// FileOutputFormat.setOutputCompressorClass(job, GzipCodec.class);
// FileOutputFormat.setOutputCompressorClass(job, DefaultCodec.class);

	boolean result = job.waitForCompletion(true);
	
	System.exit(result?1:0);
}

}
2.Mapper和Reducer保持不变(详见4.6.2)
第5章 Yarn资源调度器
Yarn是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而MapReduce等运算程序则相当于运行于操作系统之上的应用程序。
5.1 Yarn基本架构
  YARN主要由ResourceManager、NodeManager、ApplicationMaster和Container等组件构成,如图4-23所示。

图4-23 Yarn基本架构
5.3 Yarn工作机制
1.Yarn运行机制,如图4-24所示。

图4-24 Yarn工作机制
2.工作机制详解
(1)MR程序提交到客户端所在的节点。
(2)YarnRunner向ResourceManager申请一个Application。
(3)RM将该应用程序的资源路径返回给YarnRunner。
(4)该程序将运行所需资源提交到HDFS上。
(5)程序资源提交完毕后,申请运行mrAppMaster。
(6)RM将用户的请求初始化成一个Task。
(7)其中一个NodeManager领取到Task任务。
(8)该NodeManager创建容器Container,并产生MRAppmaster。
(9)Container从HDFS上拷贝资源到本地。
(10)MRAppmaster向RM 申请运行MapTask资源。
(11)RM将运行MapTask任务分配给另外两个NodeManager,另两个NodeManager分别领取任务并创建容器。
(12)MR向两个接收到任务的NodeManager发送程序启动脚本,这两个NodeManager分别启动MapTask,MapTask对数据分区排序。
(13)MrAppMaster等待所有MapTask运行完毕后,向RM申请容器,运行ReduceTask。
(14)ReduceTask向MapTask获取相应分区的数据。
(15)程序运行完毕后,MR会向RM申请注销自己。
5.4 作业提交全过程
1.作业提交过程之YARN,如图4-25所示。

图4-25 作业提交过程之Yarn
作业提交全过程详解
(1)作业提交
第1步:Client调用job.waitForCompletion方法,向整个集群提交MapReduce作业。
第2步:Client向RM申请一个作业id。
第3步:RM给Client返回该job资源的提交路径和作业id。
第4步:Client提交jar包、切片信息和配置文件到指定的资源提交路径。
第5步:Client提交完资源后,向RM申请运行MrAppMaster。
(2)作业初始化
第6步:当RM收到Client的请求后,将该job添加到容量调度器中。
第7步:某一个空闲的NM领取到该Job。
第8步:该NM创建Container,并产生MRAppmaster。
第9步:下载Client提交的资源到本地。
(3)任务分配
第10步:MrAppMaster向RM申请运行多个MapTask任务资源。
第11步:RM将运行MapTask任务分配给另外两个NodeManager,另两个NodeManager分别领取任务并创建容器。
(4)任务运行
第12步:MR向两个接收到任务的NodeManager发送程序启动脚本,这两个NodeManager分别启动MapTask,MapTask对数据分区排序。
第13步:MrAppMaster等待所有MapTask运行完毕后,向RM申请容器,运行ReduceTask。
第14步:ReduceTask向MapTask获取相应分区的数据。
第15步:程序运行完毕后,MR会向RM申请注销自己。
(5)进度和状态更新
YARN中的任务将其进度和状态(包括counter)返回给应用管理器, 客户端每秒(通过mapreduce.client.progressmonitor.pollinterval设置)向应用管理器请求进度更新, 展示给用户。
(6)作业完成
除了向应用管理器请求作业进度外, 客户端每5秒都会通过调用waitForCompletion()来检查作业是否完成。时间间隔可以通过mapreduce.client.completion.pollinterval来设置。作业完成之后, 应用管理器和Container会清理工作状态。作业的信息会被作业历史服务器存储以备之后用户核查。
2.作业提交过程之MapReduce,如图4-26所示

图4-26 作业提交过程之MapReduce
5.5 资源调度器
目前,Hadoop作业调度器主要有三种:FIFO、Capacity Scheduler和Fair Scheduler。Hadoop2.7.2默认的资源调度器是Capacity Scheduler。
具体设置详见:yarn-default.xml文件

The class to use as the resource scheduler.
yarn.resourcemanager.scheduler.class
org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler

1.先进先出调度器(FIFO),如图4-27所示
图4-27 FIFO调度器
2.容量调度器(Capacity Scheduler),如图4-28所示
图4-28容量调度器
3.公平调度器(Fair Scheduler),如图4-29所示

图4-29公平调度器
5.6 任务的推测执行
1.作业完成时间取决于最慢的任务完成时间
一个作业由若干个Map任务和Reduce任务构成。因硬件老化、软件Bug等,某些任务可能运行非常慢。
思考:系统中有99%的Map任务都完成了,只有少数几个Map老是进度很慢,完不成,怎么办?
2.推测执行机制
发现拖后腿的任务,比如某个任务运行速度远慢于任务平均速度。为拖后腿任务启动一个备份任务,同时运行。谁先运行完,则采用谁的结果。
3.执行推测任务的前提条件
(1)每个Task只能有一个备份任务
(2)当前Job已完成的Task必须不小于0.05(5%)
(3)开启推测执行参数设置。mapred-site.xml文件中默认是打开的。

mapreduce.map.speculative
true
If true, then multiple instances of some map tasks may be executed in parallel.

mapreduce.reduce.speculative true If true, then multiple instances of some reduce tasks may be executed in parallel. 4.不能启用推测执行机制情况 (1)任务间存在严重的负载倾斜。 (2)特殊任务,比如任务向数据库中写数据。 5.算法原理,如图4-20所示

图4-30 推测执行算法原理
第6章 Hadoop企业优化
6.1 MapReduce 跑的慢的原因

6.2 MapReduce优化方法
MapReduce优化方法主要从六个方面考虑:数据输入、Map阶段、Reduce阶段、IO传输、数据倾斜问题和常用的调优参数。
6.2.1 数据输入

6.2.2 Map阶段

6.2.3 Reduce阶段

6.2.4 I/O传输

6.2.5 数据倾斜问题

6.2.6 常用的调优参数
1.资源相关参数
(1)以下参数是在用户自己的MR应用程序中配置就可以生效(mapred-default.xml)
表4-12
配置参数 参数说明
mapreduce.map.memory.mb 一个MapTask可使用的资源上限(单位:MB),默认为1024。如果MapTask实际使用的资源量超过该值,则会被强制杀死。
mapreduce.reduce.memory.mb 一个ReduceTask可使用的资源上限(单位:MB),默认为1024。如果ReduceTask实际使用的资源量超过该值,则会被强制杀死。
mapreduce.map.cpu.vcores 每个MapTask可使用的最多cpu core数目,默认值: 1
mapreduce.reduce.cpu.vcores 每个ReduceTask可使用的最多cpu core数目,默认值: 1
mapreduce.reduce.shuffle.parallelcopies 每个Reduce去Map中取数据的并行数。默认值是5
mapreduce.reduce.shuffle.merge.percent Buffer中的数据达到多少比例开始写入磁盘。默认值0.66
mapreduce.reduce.shuffle.input.buffer.percent Buffer大小占Reduce可用内存的比例。默认值0.7
mapreduce.reduce.input.buffer.percent 指定多少比例的内存用来存放Buffer中的数据,默认值是0.0
(2)应该在YARN启动之前就配置在服务器的配置文件中才能生效(yarn-default.xml)
表4-13
配置参数 参数说明
yarn.scheduler.minimum-allocation-mb 给应用程序Container分配的最小内存,默认值:1024
yarn.scheduler.maximum-allocation-mb 给应用程序Container分配的最大内存,默认值:8192
yarn.scheduler.minimum-allocation-vcores 每个Container申请的最小CPU核数,默认值:1
yarn.scheduler.maximum-allocation-vcores 每个Container申请的最大CPU核数,默认值:32
yarn.nodemanager.resource.memory-mb 给Containers分配的最大物理内存,默认值:8192
(3)Shuffle性能优化的关键参数,应在YARN启动之前就配置好(mapred-default.xml)
表4-14
配置参数 参数说明
mapreduce.task.io.sort.mb Shuffle的环形缓冲区大小,默认100m
mapreduce.map.sort.spill.percent 环形缓冲区溢出的阈值,默认80%
2.容错相关参数(MapReduce性能优化)
表4-15
配置参数 参数说明
mapreduce.map.maxattempts 每个Map Task最大重试次数,一旦重试参数超过该值,则认为Map Task运行失败,默认值:4。
mapreduce.reduce.maxattempts 每个Reduce Task最大重试次数,一旦重试参数超过该值,则认为Map Task运行失败,默认值:4。
mapreduce.task.timeout Task超时时间,经常需要设置的一个参数,该参数表达的意思为:如果一个Task在一定时间内没有任何进入,即不会读取新的数据,也没有输出数据,则认为该Task处于Block状态,可能是卡住了,也许永远会卡住,为了防止因为用户程序永远Block住不退出,则强制设置了一个该超时时间(单位毫秒),默认是600000。如果你的程序对每条输入数据的处理时间过长(比如会访问数据库,通过网络拉取数据等),建议将该参数调大,该参数过小常出现的错误提示是“AttemptID:attempt_14267829456721_123456_m_000224_0 Timed out after 300 secsContainer killed by the ApplicationMaster.”。
6.3 HDFS小文件优化方法
6.3.1 HDFS小文件弊端
HDFS上每个文件都要在NameNode上建立一个索引,这个索引的大小约为150byte,这样当小文件比较多的时候,就会产生很多的索引文件,一方面会大量占用NameNode的内存空间,另一方面就是索引文件过大使得索引速度变慢。
6.3.2 HDFS小文件解决方案
小文件的优化无非以下几种方式:
(1)在数据采集的时候,就将小文件或小批数据合成大文件再上传HDFS。
(2)在业务处理之前,在HDFS上使用MapReduce程序对小文件进行合并。
(3)在MapReduce处理时,可采用CombineTextInputFormat提高效率。

第7章 MapReduce扩展案例
7.1 倒排索引案例(多job串联)
1.需求
有大量的文本(文档、网页),需要建立搜索索引,如图4-31所示。
(1)数据输入

(2)期望输出数据
atguigu c.txt–>2 b.txt–>2 a.txt–>3
pingping c.txt–>1 b.txt–>3 a.txt–>1
ss c.txt–>1 b.txt–>1 a.txt–>2
2.需求分析

3.第一次处理
(1)第一次处理,编写OneIndexMapper类
package com.atguigu.mapreduce.index;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.lib.input.FileSplit;

public class OneIndexMapper extends Mapper<LongWritable, Text, Text, IntWritable>{

String name;
Text k = new Text();
IntWritable v = new IntWritable();

@Override
protected void setup(Context context)throws IOException, InterruptedException {

	// 获取文件名称
	FileSplit split = (FileSplit) context.getInputSplit();
	
	name = split.getPath().getName();
}

@Override
protected void map(LongWritable key, Text value, Context context)	throws IOException, InterruptedException {

	// 1 获取1行
	String line = value.toString();
	
	// 2 切割
	String[] fields = line.split(" ");
	
	for (String word : fields) {

		// 3 拼接
		k.set(word+"--"+name);
		v.set(1);
		
		// 4 写出
		context.write(k, v);
	}
}

}
(2)第一次处理,编写OneIndexReducer类
package com.atguigu.mapreduce.index;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class OneIndexReducer extends Reducer<Text, IntWritable, Text, IntWritable>{

IntWritable v = new IntWritable();

@Override
protected void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {
	
	int sum = 0;

	// 1 累加求和
	for(IntWritable value: values){
		sum +=value.get();
	}
	
   v.set(sum);

	// 2 写出
	context.write(key, v);
}

}
(3)第一次处理,编写OneIndexDriver类
package com.atguigu.mapreduce.index;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class OneIndexDriver {

public static void main(String[] args) throws Exception {

   // 输入输出路径需要根据自己电脑上实际的输入输出路径设置
	args = new String[] { "e:/input/inputoneindex", "e:/output5" };

	Configuration conf = new Configuration();

	Job job = Job.getInstance(conf);
	job.setJarByClass(OneIndexDriver.class);

	job.setMapperClass(OneIndexMapper.class);
	job.setReducerClass(OneIndexReducer.class);

	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(IntWritable.class);
	
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(IntWritable.class);

	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	job.waitForCompletion(true);
}

}
(4)查看第一次输出结果
atguigu–a.txt 3
atguigu–b.txt 2
atguigu–c.txt 2
pingping–a.txt 1
pingping–b.txt 3
pingping–c.txt 1
ss–a.txt 2
ss–b.txt 1
ss–c.txt 1
4.第二次处理
(1)第二次处理,编写TwoIndexMapper类
package com.atguigu.mapreduce.index;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class TwoIndexMapper extends Mapper<LongWritable, Text, Text, Text>{

Text k = new Text();
Text v = new Text();

@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
	
	// 1 获取1行数据
	String line = value.toString();
	
	// 2用“--”切割
	String[] fields = line.split("--");
	
	k.set(fields[0]);
	v.set(fields[1]);
	
	// 3 输出数据
	context.write(k, v);
}

}
(2)第二次处理,编写TwoIndexReducer类
package com.atguigu.mapreduce.index;
import java.io.IOException;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
public class TwoIndexReducer extends Reducer<Text, Text, Text, Text> {

Text v = new Text();

@Override
protected void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException {
	// atguigu a.txt 3
	// atguigu b.txt 2
	// atguigu c.txt 2

	// atguigu c.txt-->2 b.txt-->2 a.txt-->3

	StringBuilder sb = new StringBuilder();

    // 1 拼接
	for (Text value : values) {
		sb.append(value.toString().replace("\t", "-->") + "\t");
	}

v.set(sb.toString());

	// 2 写出
	context.write(key, v);
}

}
(3)第二次处理,编写TwoIndexDriver类
package com.atguigu.mapreduce.index;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class TwoIndexDriver {

public static void main(String[] args) throws Exception {

   // 输入输出路径需要根据自己电脑上实际的输入输出路径设置

args = new String[] { “e:/input/inputtwoindex”, “e:/output6” };

	Configuration config = new Configuration();
	Job job = Job.getInstance(config);

job.setJarByClass(TwoIndexDriver.class);
job.setMapperClass(TwoIndexMapper.class);
job.setReducerClass(TwoIndexReducer.class);

	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(Text.class);
	
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(Text.class);

	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	boolean result = job.waitForCompletion(true);

System.exit(result?0:1);
}
}
(4)第二次查看最终结果
atguigu c.txt–>2 b.txt–>2 a.txt–>3
pingping c.txt–>1 b.txt–>3 a.txt–>1
ss c.txt–>1 b.txt–>1 a.txt–>2
7.2 TopN案例
1.需求
对需求2.3输出结果进行加工,输出流量使用量在前10的用户信息
(1)输入数据 (2)输出数据

2.需求分析

3.实现代码
(1)编写FlowBean类
package com.atguigu.mr.top;

import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;

import org.apache.hadoop.io.WritableComparable;

public class FlowBean implements WritableComparable{

private long upFlow;
private long downFlow;
private long sumFlow;


public FlowBean() {
	super();
}

public FlowBean(long upFlow, long downFlow) {
	super();
	this.upFlow = upFlow;
	this.downFlow = downFlow;
}

@Override
public void write(DataOutput out) throws IOException {
	out.writeLong(upFlow);
	out.writeLong(downFlow);
	out.writeLong(sumFlow);
}

@Override
public void readFields(DataInput in) throws IOException {
	upFlow = in.readLong();
	downFlow = in.readLong();
	sumFlow = in.readLong();
}

public long getUpFlow() {
	return upFlow;
}

public void setUpFlow(long upFlow) {
	this.upFlow = upFlow;
}

public long getDownFlow() {
	return downFlow;
}

public void setDownFlow(long downFlow) {
	this.downFlow = downFlow;
}

public long getSumFlow() {
	return sumFlow;
}

public void setSumFlow(long sumFlow) {
	this.sumFlow = sumFlow;
}

@Override
public String toString() {
	return upFlow + "\t" + downFlow + "\t" + sumFlow;
}

public void set(long downFlow2, long upFlow2) {
	downFlow = downFlow2;
	upFlow = upFlow2;
	sumFlow = downFlow2 + upFlow2;
}

@Override
public int compareTo(FlowBean bean) {
	
	int result;
	
	if (this.sumFlow > bean.getSumFlow()) {
		result = -1;
	}else if (this.sumFlow < bean.getSumFlow()) {
		result = 1;
	}else {
		result = 0;
	}
	
	return result;
}

}
(2)编写TopNMapper类
package com.atguigu.mr.top;

import java.io.IOException;
import java.util.Iterator;
import java.util.TreeMap;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class TopNMapper extends Mapper<LongWritable, Text, FlowBean, Text>{

// 定义一个TreeMap作为存储数据的容器(天然按key排序)
private TreeMap<FlowBean, Text> flowMap = new TreeMap<FlowBean, Text>();
private FlowBean kBean;

@Override
protected void map(LongWritable key, Text value, Context context)	throws IOException, InterruptedException {
	
	kBean = new FlowBean();
	Text v = new Text();
	
	// 1 获取一行
	String line = value.toString();
	
	// 2 切割
	String[] fields = line.split("\t");
	
	// 3 封装数据
	String phoneNum = fields[0];
	long upFlow = Long.parseLong(fields[1]);
	long downFlow = Long.parseLong(fields[2]);
	long sumFlow = Long.parseLong(fields[3]);
	
	kBean.setDownFlow(downFlow);
	kBean.setUpFlow(upFlow);
	kBean.setSumFlow(sumFlow);
	
	v.set(phoneNum);
	
	// 4 向TreeMap中添加数据
	flowMap.put(kBean, v);
	
	// 5 限制TreeMap的数据量,超过10条就删除掉流量最小的一条数据
	if (flowMap.size() > 10) {

// flowMap.remove(flowMap.firstKey());
flowMap.remove(flowMap.lastKey());
}
}

@Override
protected void cleanup(Context context) throws IOException, InterruptedException {
	
	// 6 遍历treeMap集合,输出数据
	Iterator<FlowBean> bean = flowMap.keySet().iterator();

	while (bean.hasNext()) {

		FlowBean k = bean.next();

		context.write(k, flowMap.get(k));
	}
}

}
(3)编写TopNReducer类
package com.atguigu.mr.top;

import java.io.IOException;
import java.util.Iterator;
import java.util.TreeMap;

import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class TopNReducer extends Reducer<FlowBean, Text, Text, FlowBean> {

// 定义一个TreeMap作为存储数据的容器(天然按key排序)
TreeMap<FlowBean, Text> flowMap = new TreeMap<FlowBean, Text>();

@Override
protected void reduce(FlowBean key, Iterable<Text> values, Context context)throws IOException, InterruptedException {

	for (Text value : values) {

		 FlowBean bean = new FlowBean();
		 bean.set(key.getDownFlow(), key.getUpFlow());

		 // 1 向treeMap集合中添加数据
		flowMap.put(bean, new Text(value));

		// 2 限制TreeMap数据量,超过10条就删除掉流量最小的一条数据
		if (flowMap.size() > 10) {
			// flowMap.remove(flowMap.firstKey());

flowMap.remove(flowMap.lastKey());
}
}
}

@Override
protected void cleanup(Reducer<FlowBean, Text, Text, FlowBean>.Context context) throws IOException, InterruptedException {

	// 3 遍历集合,输出数据
	Iterator<FlowBean> it = flowMap.keySet().iterator();

	while (it.hasNext()) {

		FlowBean v = it.next();

		context.write(new Text(flowMap.get(v)), v);
	}
}

}
(4)编写TopNDriver类
package com.atguigu.mr.top;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class TopNDriver {

public static void main(String[] args) throws Exception {
	
	args  = new String[]{"e:/output1","e:/output3"};
	
	// 1 获取配置信息,或者job对象实例
	Configuration configuration = new Configuration();
	Job job = Job.getInstance(configuration);

	// 6 指定本程序的jar包所在的本地路径
	job.setJarByClass(TopNDriver.class);

	// 2 指定本业务job要使用的mapper/Reducer业务类
	job.setMapperClass(TopNMapper.class);
	job.setReducerClass(TopNReducer.class);

	// 3 指定mapper输出数据的kv类型
	job.setMapOutputKeyClass(FlowBean.class);
	job.setMapOutputValueClass(Text.class);

	// 4 指定最终输出的数据的kv类型
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(FlowBean.class);

	// 5 指定job的输入原始文件所在目录
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));

	// 7 将job中配置的相关参数,以及job所用的java类所在的jar包, 提交给yarn去运行
	boolean result = job.waitForCompletion(true);
	System.exit(result ? 0 : 1);
}

}
7.3 找博客共同好友案例
1.需求
以下是博客的好友列表数据,冒号前是一个用户,冒号后是该用户的所有好友(数据中的好友关系是单向的)
求出哪些人两两之间有共同好友,及他俩的共同好友都有谁?
(1)数据输入

2.需求分析
先求出A、B、C、….等是谁的好友
第一次输出结果
A I,K,C,B,G,F,H,O,D,
B A,F,J,E,
C A,E,B,H,F,G,K,
D G,C,K,A,L,F,E,H,
E G,M,L,H,A,F,B,D,
F L,M,D,C,G,A,
G M,
H O,
I O,C,
J O,
K B,
L D,E,
M E,F,
O A,H,I,J,F,
第二次输出结果
A-B E C
A-C D F
A-D E F
A-E D B C
A-F O B C D E
A-G F E C D
A-H E C D O
A-I O
A-J O B
A-K D C
A-L F E D
A-M E F
B-C A
B-D A E
B-E C
B-F E A C
B-G C E A
B-H A E C
B-I A
B-K C A
B-L E
B-M E
B-O A
C-D A F
C-E D
C-F D A
C-G D F A
C-H D A
C-I A
C-K A D
C-L D F
C-M F
C-O I A
D-E L
D-F A E
D-G E A F
D-H A E
D-I A
D-K A
D-L E F
D-M F E
D-O A
E-F D M C B
E-G C D
E-H C D
E-J B
E-K C D
E-L D
F-G D C A E
F-H A D O E C
F-I O A
F-J B O
F-K D C A
F-L E D
F-M E
F-O A
G-H D C E A
G-I A
G-K D A C
G-L D F E
G-M E F
G-O A
H-I O A
H-J O
H-K A C D
H-L D E
H-M E
H-O A
I-J O
I-K A
I-O A
K-L D
K-O A
L-M E F
3.代码实现
(1)第一次Mapper类
package com.atguigu.mapreduce.friends;
import java.io.IOException;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class OneShareFriendsMapper extends Mapper<LongWritable, Text, Text, Text>{

@Override
protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, Text, Text>.Context context)
		throws IOException, InterruptedException {

	// 1 获取一行 A:B,C,D,F,E,O
	String line = value.toString();
	
	// 2 切割
	String[] fields = line.split(":");
	
	// 3 获取person和好友
	String person = fields[0];
	String[] friends = fields[1].split(",");
	
	// 4写出去
	for(String friend: friends){

		// 输出 <好友,人>
		context.write(new Text(friend), new Text(person));
	}
}

}
(2)第一次Reducer类
package com.atguigu.mapreduce.friends;
import java.io.IOException;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class OneShareFriendsReducer extends Reducer<Text, Text, Text, Text>{

@Override
protected void reduce(Text key, Iterable<Text> values, Context context)throws IOException, InterruptedException {
	
	StringBuffer sb = new StringBuffer();

	//1 拼接
	for(Text person: values){
		sb.append(person).append(",");
	}
	
	//2 写出
	context.write(key, new Text(sb.toString()));
}

}
(3)第一次Driver类
package com.atguigu.mapreduce.friends;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class OneShareFriendsDriver {

public static void main(String[] args) throws Exception {

// 1 获取job对象
Configuration configuration = new Configuration();
Job job = Job.getInstance(configuration);

	// 2 指定jar包运行的路径
	job.setJarByClass(OneShareFriendsDriver.class);

	// 3 指定map/reduce使用的类
	job.setMapperClass(OneShareFriendsMapper.class);
	job.setReducerClass(OneShareFriendsReducer.class);
	
	// 4 指定map输出的数据类型
	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(Text.class);
	
	// 5 指定最终输出的数据类型
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(Text.class);
	
	// 6 指定job的输入原始所在目录
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));
	
	// 7 提交
	boolean result = job.waitForCompletion(true);
	
	System.exit(result?0:1);
}

}
(4)第二次Mapper类
package com.atguigu.mapreduce.friends;
import java.io.IOException;
import java.util.Arrays;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class TwoShareFriendsMapper extends Mapper<LongWritable, Text, Text, Text>{

@Override
protected void map(LongWritable key, Text value, Context context)
		throws IOException, InterruptedException {

	// A I,K,C,B,G,F,H,O,D,
	// 友 人,人,人
	String line = value.toString();
	String[] friend_persons = line.split("\t");

	String friend = friend_persons[0];
	String[] persons = friend_persons[1].split(",");

	Arrays.sort(persons);

	for (int i = 0; i < persons.length - 1; i++) {
		
		for (int j = i + 1; j < persons.length; j++) {
			// 发出 <人-人,好友> ,这样,相同的“人-人”对的所有好友就会到同1个reduce中去
			context.write(new Text(persons[i] + "-" + persons[j]), new Text(friend));
		}
	}
}

}
(5)第二次Reducer类
package com.atguigu.mapreduce.friends;
import java.io.IOException;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

public class TwoShareFriendsReducer extends Reducer<Text, Text, Text, Text>{

@Override
protected void reduce(Text key, Iterable<Text> values, Context context)	throws IOException, InterruptedException {
	
	StringBuffer sb = new StringBuffer();

	for (Text friend : values) {
		sb.append(friend).append(" ");
	}
	
	context.write(key, new Text(sb.toString()));
}

}
(6)第二次Driver类
package com.atguigu.mapreduce.friends;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class TwoShareFriendsDriver {

public static void main(String[] args) throws Exception {

// 1 获取job对象
Configuration configuration = new Configuration();
Job job = Job.getInstance(configuration);

	// 2 指定jar包运行的路径
	job.setJarByClass(TwoShareFriendsDriver.class);

	// 3 指定map/reduce使用的类
	job.setMapperClass(TwoShareFriendsMapper.class);
	job.setReducerClass(TwoShareFriendsReducer.class);
	
	// 4 指定map输出的数据类型
	job.setMapOutputKeyClass(Text.class);
	job.setMapOutputValueClass(Text.class);
	
	// 5 指定最终输出的数据类型
	job.setOutputKeyClass(Text.class);
	job.setOutputValueClass(Text.class);
	
	// 6 指定job的输入原始所在目录
	FileInputFormat.setInputPaths(job, new Path(args[0]));
	FileOutputFormat.setOutputPath(job, new Path(args[1]));
	
	// 7 提交
	boolean result = job.waitForCompletion(true);
	System.exit(result?0:1);
}

}
第8章 常见错误及解决方案
1)导包容易出错。尤其Text和CombineTextInputFormat。
2)Mapper中第一个输入的参数必须是LongWritable或者NullWritable,不可以是IntWritable. 报的错误是类型转换异常。
3)java.lang.Exception: java.io.IOException: Illegal partition for 13926435656 (4),说明Partition和ReduceTask个数没对上,调整ReduceTask个数。
4)如果分区数不是1,但是reducetask为1,是否执行分区过程。答案是:不执行分区过程。因为在MapTask的源码中,执行分区的前提是先判断ReduceNum个数是否大于1。不大于1肯定不执行。
5)在Windows环境编译的jar包导入到Linux环境中运行,
hadoop jar wc.jar com.atguigu.mapreduce.wordcount.WordCountDriver /user/atguigu/ /user/atguigu/output
报如下错误:
Exception in thread “main” java.lang.UnsupportedClassVersionError: com/atguigu/mapreduce/wordcount/WordCountDriver : Unsupported major.minor version 52.0
原因是Windows环境用的jdk1.7,Linux环境用的jdk1.8。
解决方案:统一jdk版本。
6)缓存pd.txt小文件案例中,报找不到pd.txt文件
原因:大部分为路径书写错误。还有就是要检查pd.txt.txt的问题。还有个别电脑写相对路径找不到pd.txt,可以修改为绝对路径。
7)报类型转换异常。
通常都是在驱动函数中设置Map输出和最终输出时编写错误。
Map输出的key如果没有排序,也会报类型转换异常。
8)集群中运行wc.jar时出现了无法获得输入文件。
原因:WordCount案例的输入文件不能放用HDFS集群的根目录。
9)出现了如下相关异常
Exception in thread “main” java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO W i n d o w s . a c c e s s 0 ( L j a v a / l a n g / S t r i n g ; I ) Z a t o r g . a p a c h e . h a d o o p . i o . n a t i v e i o . N a t i v e I O Windows.access0(Ljava/lang/String;I)Z at org.apache.hadoop.io.nativeio.NativeIO Windows.access0(Ljava/lang/String;I)Zatorg.apache.hadoop.io.nativeio.NativeIOWindows.access0(Native Method)
at org.apache.hadoop.io.nativeio.NativeIO$Windows.access(NativeIO.java:609)
at org.apache.hadoop.fs.FileUtil.canRead(FileUtil.java:977)
java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.
at org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:356)
at org.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:371)
at org.apache.hadoop.util.Shell.(Shell.java:364)
解决方案:拷贝hadoop.dll文件到Windows目录C:\Windows\System32。个别同学电脑还需要修改Hadoop源码。
方案二:创建如下包名,并将NativeIO.java拷贝到该包名下

10)自定义Outputformat时,注意在RecordWirter中的close方法必须关闭流资源。否则输出的文件内容中数据为空。
@Override
public void close(TaskAttemptContext context) throws IOException, InterruptedException {
if (atguigufos != null) {
atguigufos.close();
}
if (otherfos != null) {
otherfos.close();
}
}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值