1.数据来源层:
- 数据库数据
Oracle、MySQL、SqlServer…
- 文件日志数据
Tomcat 日志…
- 视频、PPT等
2.数据传输层:
-
Sqoop
Sqoop是一款开源的工具,主要用于在Hadoop、Hive与传统的数据库(MySql)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
-
Flume
Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
处理日志非常专业
-
Kafka
Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:
(1)通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
(2)高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。
(3)支持通过Kafka服务器和消费机集群来分区消息。
(4)支持Hadoop并行数据加载。
3.数据存储层:
- HDFS
分布式文件存储系统,Hadoop最擅长存储数据的地方
- Kafka
Kafka内部也能缓存一些数据,默认就是1G的数据,通常不拿它来存储数据
- HBase
HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。
非关系型数据库,使用的是列存储方式
4.资源管理层:
- YARN资源调度
将数据存储下来,就需要对数据进行分析,分析就需要资源、CPU、内存、磁盘,
这些都由Yarn来调度
5.数据计算层:
数据计算,又分为:实时计算
、离线计算
两部分
5.1 离线计算:
离线计算:主要来统计日活
、月活
、年统计
、本月消费情况
等,并不是实时的数据
-
MapReduce 离线计算(MR属于Hadoop的核心计算框架)
基于MR之上,有 Hive 和 Mahout 等数据分析工具
Hive:Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
Hive 底层就是 MapReduce,写 MapReduce 程序需要 Map、Reduce、Driver类,写起来比较麻烦。为了简化就有了 Hive,它通过简单的写一条 SQL 就可以实现 MapReduce 过程。Hive就是底层封装成MapReduce、上层就是写SQL
Mahout:Apache Mahout是个可扩展的机器学习和数据挖掘库,偏机器学习方向 -
Spark Core 基于内存离线计算(断电数据丢失,也很危险的)
基于Spark之上,集成了很多功能
Spark Mlib:机器学习的一些算法
Spark R:R语言是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个自由、免费、源代码开放的软件,它是一个用于统计计算和统计制图的优秀工具
Spark Sql:和 Hive 很相似,写 Sql 实现分析计算的过程
5.2 实时计算:
-
Spark Streaming 准实时计算
Spark 是当前最流行的开源大数据内存计算框架。可以基于 Hadoop 上存储的大数据进行计算。
Spark Streaming并不是完全实时的
,它底层采用的是批处理技术
(就是一批一批的处理,相当于是微批处理),所以说 Spark Streaming 是准实时计算 -
Storm:实时计算
Storm 是实时计算。Storm用于“连续计算”,对数据流做连续查询,在计算时就将结果以流的形式输出给用户。
但是它已经在走下坡路了。新起的 Flink 项目更优秀
-
Flink:实时计算
Flink 是时下很流行的实时计算框架。全面对标 Spark。Flink 支持实时计算,
由于 Flink 引擎比较强大,它也同样支持离线计算。
Flink专题,你也可以来看我的博客:https://blog.csdn.net/lzb348110175/category_9677037.html
6.任务调度层
主要完成任务之间的执行调度问题。比如:任务何时启动
、任务运行多长时间
、r任务间的依赖问题,必须在A任务完成后才能执行B任务
、多个任务的并行执行
等,就需要用到任务调度了。
- Oozie 任务调度
Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统
Oozie属于偏重量级的,功能是这三个调度中最复杂的。 - Azkaban 任务调度
Azkaban,使用起来比较简单
- crontab 任务调度
crontab 是 Linux自带的一个调度工具。
7.数据平台配置
- Zookeeper
Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。
收集大数据生态体系中很多框架的配置信息,经常需要改变的统统都放到ZK中,如果改变时,只改变ZK中的配置就行。
比如:Spark 中易改变的配置,都放在ZK中,改完后进行配置分发即可(Spark比如有1000台机器,就很方便了)
8.业务模型层
- JavaEE
主要来解决企业问题,使用到的都是 JavaEE 相关技术,包括业务指标,数据可视化、BI报表等
博主写作不易,来个关注呗
求关注、求点赞,加个关注不迷路 ヾ(◍°∇°◍)ノ゙
我不能保证所写的内容都正确,但是可以保证不复制、不粘贴。保证每一句话、每一行代码都是亲手敲过的,错误也请指出,望轻喷 Thanks♪(・ω・)ノ