大数据平台 Hadoop 的分布式集群环境搭建

1 概述

                                         数据分析平台架构原理

e32d3f6d0551c46163fc97d72e79c1cbc77.jpg

从概念上讲,我们可以把数据分析平台分为接入层(Landing)、整合层(Integration)、表现层(Persentation)、语义层(Semantic)、终端用户应用(End-user applications)、元数据(Metadata)。基于Hadoop和数据库的分析平台基本概念和逻辑架构是通用的,只是技术选型的不同:

 

  • 接入层(Landing):以和源系统相同的结构暂存原始数据,有时被称为“贴源层”或ODS;

  • 整合层(Integration):持久存储整合后的企业数据,针对企业信息实体和业务事件建模,代表组织的“唯一真相来源”,有时被称为“数据仓库”;

  • 表现层(Presentation):为满足最终用户的需求提供可消费的数据,针对商业智能和查询性能建模,有时被称为“数据集市”;

  • 语义层(Semantic):提供数据的呈现形式和访问控制,例如某种报表工具;

  • 终端用户应用(End-user applications):使用语义层的工具,将表现层数据最终呈现给用户,包括仪表板、报表、图表等多种形式;

  • 元数据(Metadata):记录各层数据项的定义(Definitions)、血缘(Genealogy)、处理过程(Processing)。

 

来自不同数据源的“生”数据(接入层),和经过中间处理之后得到的整合层、表现层的数据模型,都会存储在数据湖里备用。

 

       数据湖的实现通常建立在Hadoop生态上,可能直接存储在HDFS上,也可能存储在HBase或Hive上,也有用关系型数据库作为数据湖存储的可能性存在。

d02f696d1472b0efb4c957f64de16e7de7a.jpg

下图说明了数据分析平台的数据处理流程:

4022261fd2991d6803644a3cd54271f4640.jpg

数据分析基本都是单独的系统,会将其他数据源的数据(即外部数据)同步到数据平台的存储体系来(即数据湖),一般数据先进入到接入层,这一层只简单的将外部数据同步到数据分析平台,没有做其他处理,这样同步出错后重试即可,有定时同步和流式同步两种:

  • 定时同步即我们设定在指定时间触发同步动作;

  • 流式同步即外部数据通过Kafka或MQ发送数据修改通知及内容。

数据分析平台执行对应操作修改数据。

 

      接入层数据需要经过ETL处理步骤才会进入数据仓库,数据分析人员都是基于数据仓库的数据来做分析计算,数据仓库可以看作数据分析的唯一来源,ETL会将接入层的数据做数据清洗、转换,再加载到数据仓库,过滤或处理不合法、不完整的数据,并使用统一的维度来表示数据状态。有的系统会在这一层就将数据仓库构建成数据立方体、将维度信息构建成雪花或星型模式;也有的系统这一层只是统一了所有数据信息,没有做数据立方体,留在数据集市做。

 

       数据集市是基于数据仓库数据对业务关心的信息做计算提取后得到的进一步信息,是业务人员直接面对的信息,是数据仓库的进一步计算和深入分析的结果,一般都会构建数据立方体。系统开发人员一般会开发页面来向用户展示数据集市的数据。

                        基于Hadoop构建数据分析平台

b27f622b72b6e633380c3e4444466771703.jpg

上面这张图是我们使用到的Hadoop平台的组件,数据从下到上流动,数据处理流程和上面说的一致。

 

任务调度负责将数据处理的流程串联起来,这里我选择使用的是Oozie,也有很多其它选择。

1、数据存储

 

基于Hadoop的数据湖主要用到了HDFS、Hive和HBase,HDFS是Hadoop平台的文件存储系统,我们直接操纵文件是比较复杂的,所以可以使用分布式数据库Hive或HBase用来做数据湖,存储接入层、数据仓库、数据集市的数据。

 

Hive和HBase各有优势:HBase是一个NoSQL数据库,随机查询性能和可扩展性都比较好;而Hive是一个基于HDFS的数据库,数据文件都以HDFS文件(夹)形式存放,存储了表的存储位置(即在HDFS中的位置)、存储格式等元数据,Hive支持SQL查询,可将查询解析成Map/Reduce执行,这对传统的数据分析平台开发人员更友好。

 

Hive数据格式可选择文本格式或二进制格式,文本格式有csv、json或自定义分隔,二进制格式有orc或parquet,他们都基于行列式存储,在查询时性能更好。同时可选择分区(partition),这样在查询时可通过条件过滤进一步减少数据量。接入层一般选择csv或json等文本格式,也不做分区,以尽量简化数据同步。数据仓库则选择orc或parquet,以提升数据离线计算性能。

 

数据集市这块可以选择将数据灌回传统数据库(RDBMS),也可以停留在数据分析平台,使用NoSQL提供数据查询或用Apache Kylin来构建数据立方体,提供SQL查询接口。

2、数据同步

 

我们通过数据同步功能使得数据到达接入层,使用到了Sqoop和Kafka。数据同步可以分为全量同步和增量同步,对于小表可以采用全量同步,对于大表全量同步是比较耗时的,一般都采用增量同步,将变动同步到数据平台执行,以达到两边数据一致的目的。

 

全量同步使用Sqoop来完成,增量同步如果考虑定时执行,也可以用Sqoop来完成。或者,也可以通过Kafka等MQ流式同步数据,前提是外部数据源会将变动发送到MQ。

3、ETL及离线计算

 

我们使用Yarn来统一管理和调度计算资源。相较Map/Reduce,Spark SQL及Spark RDD对开发人员更友好,基于内存计算效率也更高,所以我们使用Spark on Yarn作为分析平台的计算选型。

 

ETL可以通过Spark SQL或Hive SQL来完成,Hive在2.0以后支持存储过程,使用起来更方便。当然,出于性能考虑Saprk SQL还是不错的选择。

 

 

本文章介绍大数据平台Hadoop的分布式环境搭建、以下为Hadoop节点的部署图,将NameNode部署在master1,SecondaryNameNode部署在master2,slave1、slave2、slave3中分别部署一个DataNode节点

 

NN=NameNode(名称节点)

SND=SecondaryNameNode(NameNode的辅助节点)

DN=DataNode(数据节点)

 

2 前期准备

 

(1)准备五台服务器

 

如:master1、master2、slave1、slave2、slave3

 

(2)关闭所有服务器的防火墙

 

# systemctl stop firewalld

#  systemctl disable firewalld

 

(3)分别修改各服务器的/etc/hosts文件,内容如下:

192.168.56.132 mates1

192.168.56.133 mates2

192.168.56.134 slave1

192.168.56.135 slave2

192.168.56.136 slave3

注:对应修改个服务器的/etc/hostname文件,分别为 master1、master2、slave1、slave2、slave3

 

(4)分别在各台服务器创建一个普通用户与组

 

# groupadd hadoop                   #增加新用户组
# useradd hadoop -m -g hadoop            #增加新的用户
# passwd hadoop             #修改hadoop用户的密码

 

 

切换至hadoop用户:su hadoop

 

(5)各服务器间的免密码登录配置,分别在各自服务中执行一次

 

495be054b1869a8b087d090dd007142f1b3.jpg

注:以上操作需要登录到hadoop用户操作

 

(6)下载hadoop包,hadoop-2.7.5.tar.gz

 

官网地址:https://archive.apache.org/dist/hadoop/common/hadoop-2.7.5/

 

3 开始安装部署

 

(1)创建hadoop安装目录

 

8f72dac1f9d0ca4f4b5492c16751868cb1a.jpg

 

(2)将安装包解压至/home/hadoop/app/hadoop下

 

5fd709e241018bbe3b320fe4a9da7a02a5f.jpg

 

(3)配置hadoop的环境变量,修改/etc/profile

 

462d8c7ab82b7d5b1cea6af3b135b83dbf2.jpg

 

(4)刷新环境变量

 

8238076f8415b70c412795a786277a521c7.jpg

 

4 配置Hadoop

 

(1)配置core-site.xml

 

0a65aa0e31b121f7c3d30211af2dc87b2ae.jpg

 

默认配置地址:http://hadoop.apache.org/docs/r2.7.5/hadoop-project-dist/hadoop-common/core-default.xml

 

(2)配置hdfs-site.xml

 

6226b24a5bb60d26e9acc110a83d00b2d08.jpg

c120bb4462803457c0cf7fe2e5ad90605d5.jpg

 

默认配置地址:http://hadoop.apache.org/docs/r2.7.5/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml

 

(3)配置mapred-site.xml

 

$ cp /home/hadoop/app/hadoop/hadoop-2.7.5/etc/hadoop/mapred-site.xml.template /home/hadoop/app/hadoop/hadoop-2.7.5/etc/hadoop/mapred-site.xml

$ vi /home/hadoop/app/hadoop/hadoop-2.7.5/etc/hadoop/mapred-site.xml

 

5f9e81bc7e217542e5a67dbdff734cb9c4f.jpg

 

默认配置地址:http://hadoop.apache.org/docs/r2.7.5/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml

 

(4)配置yarn-site.xml

 

41c03bce05bb9bc5913fba955a80c4b03e1.jpg

e7ab47878a5edd0753ff218b7ee03cf5169.jpg

 

默认配置地址:http://hadoop.apache.org/docs/r2.7.5/hadoop-yarn/hadoop-yarn-common/yarn-default.xml

 

(5)配置slaves

 

ceb4138f3a84ec7adafdb7f3911ae48dcf7.jpg

1d3a8f766519f70aa99c0896768f4805b4c.jpg

slaves文件中配置的是DataNode的所在节点服务

 

(6)配置hadoop-env

 

修改hadoop-env.sh文件的JAVA_HOME环境变量,操作如下:

 

1dea0967502cbefe0f513de583c9246fe78.jpg

 

(7)配置yarn-env

 

修改yarn-env.sh文件的JAVA_HOME环境变量,操作如下

 

2e1b0b935d3522fee8d2daaac86c6702b14.jpg

 

(8)配置mapred-env

 

修改mapred-env.sh文件的JAVA_HOME环境变量,操作如下:

 

897466fd9fd9d5e02b6078ac4f00a3165a7.jpg

 

(9)将master1中配置好的hadoop分别远程拷贝至maser2、slave1 、slave2、slave3服务器中

 

be8c1eac3e359b248e1dadb23cd1a1887de.jpg

 

5 启动测试

 

(1)在master1节点中初始化Hadoop集群

 

469023bc146bc9bde15f472e742944d2e6f.jpg

 

(2)启动Hadoop集群

 

 

 

(3)验证集群是否成功

 

浏览器中访问50070的端口,如下证明集群部署成功

 

58c1f285bf242ee3ac2b379ce0b9f27267b.jpg

40f04285eda76c14659d9f3993066afb6de.jpg

 

转载于:https://my.oschina.net/u/3803405/blog/1820453

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值