Hadoop家族各个产品功能

转自: http://blog.csdn.net/zenmehuizheyangne1/article/details/31751737


一句话产品介绍:

  • Apache Hadoop: 是Apache开源组织的一个分布式计算开源框架,提供了一个分布式文件系统子项目(HDFS)和支持MapReduce分布式计算的软件架构。
  • Apache Hive: 是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
  • Apache Pig: 是一个基于Hadoop的大规模数据分析工具,它提供的SQL-LIKE语言叫Pig Latin,该语言的编译器会把类SQL的数据分析请求转换为一系列经过优化处理的MapReduce运算。
  • Apache HBase: 是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。
  • Apache Sqoop: 是一个用来将Hadoop和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
  • Apache Zookeeper: 是一个为分布式应用所设计的分布的、开源的协调服务,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,简化分布式应用协调及其管理的难度,提供高性能的分布式服务
  • Apache Mahout:是基于Hadoop的机器学习和数据挖掘的一个分布式框架。Mahout用MapReduce实现了部分数据挖掘算法,解决了并行挖掘的问题。
  • Apache Cassandra:是一套开源分布式NoSQL数据库系统。它最初由Facebook开发,用于储存简单格式数据,集Google BigTable的数据模型与Amazon Dynamo的完全分布式的架构于一身
  • Apache Avro: 是一个数据序列化系统,设计用于支持数据密集型,大批量数据交换的应用。Avro是新的数据序列化格式与传输工具,将逐步取代Hadoop原有的IPC机制
  • Apache Ambari: 是一种基于Web的工具,支持Hadoop集群的供应、管理和监控。
  • Apache Chukwa: 是一个开源的用于监控大型分布式系统的数据收集系统,它可以将各种各样类型的数据收集成适合 Hadoop 处理的文件保存在 HDFS 中供 Hadoop 进行各种 MapReduce 操作。
  • Apache Hama: 是一个基于HDFS的BSP(Bulk Synchronous Parallel)并行计算框架, Hama可用于包括图、矩阵和网络算法在内的大规模、大数据计算。
  • Apache Flume: 是一个分布的、可靠的、高可用的海量日志聚合的系统,可用于日志数据收集,日志数据处理,日志数据传输。
  • Apache Giraph: 是一个可伸缩的分布式迭代图处理系统, 基于Hadoop平台,灵感来自 BSP (bulk synchronous parallel) 和 Google 的 Pregel。
  • Apache Oozie: 是一个工作流引擎服务器, 用于管理和协调运行在Hadoop平台上(HDFS、Pig和MapReduce)的任务。
  • Apache Crunch: 是基于Google的FlumeJava库编写的Java库,用于创建MapReduce程序。与Hive,Pig类似,Crunch提供了用于实现如连接数据、执行聚合和排序记录等常见任务的模式库
  • Apache Whirr: 是一套运行于云服务的类库(包括Hadoop),可提供高度的互补性。Whirr学支持Amazon EC2和Rackspace的服务。
  • Apache Bigtop: 是一个对Hadoop及其周边生态进行打包,分发和测试的工具。
  • Apache HCatalog: 是基于Hadoop的数据表和存储管理,实现中央的元数据和模式管理,跨越Hadoop和RDBMS,利用Pig和Hive提供关系视图。
  • Cloudera Hue: 是一个基于WEB的监控和管理系统,实现对HDFS,MapReduce/YARN, HBase, Hive, Pig的web化操作和管理。


摘自官网:

1.数据管理
  • Apache Hadoop YARN
    YARN 作为 Hadoop 项目核心的一部分,是用于 Hadoop 数据处理的下一代框架,通过支持与其他编程模型关联的非 MapReduce 工作量扩展 MapReduce 功能。
  • HDFS
    Hadoop Distributed File System (HDFS) 是基于 Java 的文件系统,提供可扩展和可靠的数据存储,设计为可跨大型商用服务器群集使用。
2.数据访问
Accumulo 是一种高性能数据存储和检索系统,具有单元级访问控制。它是 Google 的 Big Table 设计的可扩展实施方式,可用于 Apache Hadoop 和 Apache ZooKeeper。
一种面向列的 NoSQL 数据存储系统,为用户应用程序提供对于大数据的随机实时读/写访问权限。
一种表格和元数据管理服务,为数据处理系统提供集中方式,从而了解存储在 Apache Hadoop 中的数据的结构和位置。
Hive 基于 MapReduce 而构建,是一种数据仓库,通过用于存储在 HDFS 中的大型数据集的类 SQL 接口实现便利的数据汇总和临时查询。
Kafka 是一个可扩展的快速发布订阅信息系统,因为该系统拥有较高的吞吐量、复制量和容错能力,因此通常被用作传统的信息代理。
Mahout 为 Hadoop 提供可扩展机器学习算法,帮助数据科技实现基于群集、分类和批处理的协作性筛选。
用于处理和分析大型数据集的平台。Pig 采用高级语言 (Pig Latin) 来表达与 MapReduce 框架匹配的数据分析程序以处理这些程序。
Hadoop 中长期运行的数据访问应用程序的部署框架。Slider 利用 YARN 的资源管理能力来部署这些应用程序、管理它们的生命周期并对它们进行扩展或收缩。
Solr 是一个开源平台,用于搜索 Hadoop 中存储的数据。Solr 支持在世界最大的网站上进行强大的全文搜索和近乎实时的索引。
Spark 是内存中数据处理的理想之选。它允许数据科学家执行快速的迭代算法,用于群集和数据集分类等高级分析。
Storm 是一种分布式实时计算系统,用于处理快速、大型的数据流,为 Apache Hadoop® 2.x 带来可靠的实时数据处理功能
Tez 将 MapReduce 范例概括为更为强大的框架,从而执行任务的复杂 DAG(有向非循环图)以实现近实时大数据处理。
MapReduce 是一种用于编写应用程序的框架,这些应用程序以可靠和容错的方式跨数千计算机组成的群集并行处理大量结构化和非结构化数据。

3.数据Governance & Integration
Atlas is a scalable and extensible set of core governance services that enable enterprises to meet their compliance    requirements based on business taxonomical and operational metadata
Falcon 是一种数据管理框架,用于简化数据生命周期管理并处理 Apache Hadoop® 上的管道。它可让用户编排数据移动、管道处理、灾难恢复以及数据保留工作流。
Flume 可让您有效地从众多不同源集合大量日志数据并移动至 Hadoop。
Sqoop 是一种工具,可加快和简化 Hadoop 中数据的移入和移出。它提供各种常用企业数据源的可靠并行加载。
4.安全性

Knox Gateway (“Knox”) 在群集中为 Apache Hadoop 服务提供单点身份验证和访问。该项目的目标是为访问群集数据和执行作业的用户以及控制群集访问权限的操作员简化 Hadoop 安全性。

Apache Ranger delivers a comprehensive approach to security for a Hadoop cluster. It provides central security policy administration across the core enterprise security requirements of authorization, authentication, audit and data protection.

5.运营
用于 Apache Hadoop 群集的一种开源安装生命周期管理、营运和监控系统。
Oozie Java Web 应用程序用于计划 Apache Hadoop 作业。Oozie 按顺序将多个作业组合至一个逻辑工作单位。
用于协调分布式流程的高可用性系统。分布式应用程序使用 ZooKeeper 来存储更新并将其传递给重要的配置信息。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值