hadoop离线项目处理流程

 各组件的简介

  1.  Hadoop:HDFS MR(清洗)YARN、需要部署hadoop集群
  2. Hive:外部表、SQL、解决数据倾斜、sql优化、基于元数据管理、SQL到MR过程
  3. Flume:将数据抽取到hdfs
  4. 调度:crontab、shell、Azkaban
  5. HUE:可视化的notebook,CM自带 ,排查数据
  • 使用Flume/logstash抽取服务器上的日志数据以及使用sqoop/spark抽取关系型数据库的数据,将数据抽取到HDFS(压缩+普通文本格式)。 将hdfs上数据通过(MR/Spark/Flink)清洗出来后存放数仓(hive) 将原始的数据放到目标位置(hive的外部表) 业务计算,将结果放到业务表(数据集市) 应用程序查询访问,我们这个可通过HUE查看信息

  

 处理流程图

 

 

  1. 集群内的可用flume,beat,logstash等等采集工具
  2. 集群外的数据可以通过sqoop或者spark等一些平台或者框架来导入(如果从sql来解决就是平台型的,如果从代码来解决就是业务型的)这里都是平台型来解决。
  3. 大部分公司都是以天级别来分log文件的;支持各种文本格式
  4. 清洗过后的数据一般都是落在hive之上;ETL(mr)出来之后的一个分区表
  5. 步骤是:数据清洗=>移动数据到数仓=>刷元数据信息 最后用hue等工具展示数据

 

 

备注1:HUE是个非常强大且方便的可视化界面。在界面能操作hadoop生态圈的组件以及查询 查询组件显示信息。使用场景:排查数据
备注2: zeppelin和HUE较类似的一个工具,但是比HUE好用,目前市场主流是以改zeppelin源码去做自己的可视化界面。
备注3:步骤2、3、4,的数据落地hdfs时,数据压缩格式、数据的存储格式选择很重要

转载于:https://www.cnblogs.com/xuziyu/p/10680609.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值