Hadoop生态图谱 与 七年历程

  1. 这一切,都起源自Web数据爆炸时代的来临
  2. 数据抓取系统 - Nutch
  3. 海量数据怎么存,当然是用分布式文件系统 - HDFS
  4. 数据怎么用呢,分析,处理
  5. MapReduce框架,让你编写代码来实现对大数据的分析工作
  6. 非结构化数据(日志)收集处理 - fuse,webdav,chukwa,flume, Scribe
  7. 数据导入到HDFS中,至此RDBSM也可以加入HDFS的狂欢了 - Hiho, sqoop
  8. MapReduce太麻烦,好吧,让你用熟悉的方式来操作Hadoop里的数据 – Pig, Hive, Jaql
  9. 让你的数据可见 - drilldown, Intellicus
  10. 用高级语言管理你的任务流 – oozie,Cascading
  11. Hadoop当然也有自己的监控管理工具 – Hue, karmasphere, eclipse plugin, cacti, ganglia
  12. 数据序列化处理与任务调度 – Avro, Zookeeper
  13. 更多构建在Hadoop上层的服务 –Mahout,Elastic map Reduce
  14. OLTP存储系统 – Hbase

 

http://www.kuqin.com/system-analysis/20120219/318275.html 

 

 

 

  本文将对Hadoop七年(2004-2011)的发展历程进行梳理。读完本文后,将不难看出,Hadoop的发展基本上经历了这样一个过程:从一个开源的Apache基金会项目,随着越来越多的用户的加入,不断地使用、贡献和完善,形成一个强大的生态系统,从2009年开始,随着云计算和大数据的发展,Hadoop作为海量数据分析的最佳解决方案,开始受到许多IT厂商的关注,从而出现了许多Hadoop的商业版以及支持Hadoop的产品,包括软件和硬件。

  2004年,Google发表论文,向全世界介绍了MapReduce。

  2005年初,为了支持Nutch搜索引擎项目,Nutch的开发者基于Google发布的MapReduce报告,在Nutch上开发了一个可工作的MapReduce应用。

  2005年年中,所有主要的Nutch算法被移植到使用MapReduce和NDFS(Nutch Distributed File System )来运行。

  2006年1月,Doug Cutting加入雅虎,Yahoo!提供一个专门的团队和资源将Hadoop发展成一个可在网络上运行的系统。

  2006年2月,Apache Hadoop项目正式启动以支持MapReduce和HDFS的独立发展。

  2007年,百度开始使用Hadoop做离线处理,目前差不多80%的Hadoop集群用作日志处理。

  2007年,中国移动开始在“大云”研究中使用Hadoop技术,规模超过1000台。

  2008年,淘宝开始投入研究基于Hadoop的系统——云梯,并将其用于处理电子商务相关数据。云梯1的总容量大概为9.3PB,包含了1100台机器,每天处理约18000道作业,扫描500TB数据。

  2008年1月,Hadoop成为Apache顶级项目。

  2008年2月,Yahoo!宣布其搜索引擎产品部署在一个拥有1万个内核的Hadoop集群上。

  2008年7月,Hadoop打破1TB数据排序基准测试记录。Yahoo!的一个Hadoop集群用209秒完成1TB数据的排序 ,比上一年的纪录保持者保持的297秒快了将近90秒。

  2009 年 3 月,Cloudera推出CDH(Cloudera’s Distribution including Apache Hadoop)平台,完全由开放源码软件组成,目前已经进入第3版。

  2009年5月,Yahoo的团队使用Hadoop对1 TB的数据进行排序只花了62秒时间。

  2009年7月 ,Hadoop Core项目更名为Hadoop Common;

  2009年7月 ,MapReduce 和 Hadoop Distributed File System (HDFS) 成为Hadoop项目的独立子项目。

  2009年7月 ,Avro 和 Chukwa 成为Hadoop新的子项目。

  2010年5月 ,Avro脱离Hadoop项目,成为Apache顶级项目。

  2010年5月 ,HBase脱离Hadoop项目,成为Apache顶级项目。

  2010年5月,IBM提供了基于Hadoop 的大数据分析软件——InfoSphere BigInsights,包括基础版和企业版。

  2010年9月,Hive( Facebook) 脱离Hadoop,成为Apache顶级项目。

  2010年9月,Pig脱离Hadoop,成为Apache顶级项目。

  2011年1月,ZooKeeper 脱离Hadoop,成为Apache顶级项目。

  2011年3月,Apache Hadoop获得Media Guardian Innovation Awards 。

  2011年3月, Platform Computing 宣布在它的Symphony软件中支持Hadoop MapReduce API。

  2011年5月,Mapr Technologies公司推出分布式文件系统和MapReduce引擎——MapR Distribution for Apache Hadoop。

  2011年5月,HCatalog 1.0发布。该项目由Hortonworks 在2010年3月份提出,HCatalog主要用于解决数据存储、元数据的问题,主要解决HDFS的瓶颈,它提供了一个地方来存储数据的状态信息,这使得数据清理和归档工具可以很容易的进行处理。

  2011年4月,SGI( Silicon Graphics International )基于SGI Rackable和CloudRack服务器产品线提供Hadoop优化的解决方案。

  2011年5月,EMC为客户推出一种新的基于开源Hadoop解决方案的数据中心设备——GreenPlum HD,以助其满足客户日益增长的数据分析需求并加快利用开源数据分析软件。Greenplum是EMC在2010年7月收购的一家开源数据仓库公司。

  2011年5月,在收购了Engenio之后, NetApp推出与Hadoop应用结合的产品E5400存储系统。

  2011年6月,Calxeda公司(之前公司的名字是Smooth-Stone)发起了“开拓者行动”,一个由10家软件公司组成的团队将为基于Calxeda即将推出的ARM系统上芯片设计的服务器提供支持。并为Hadoop提供低功耗服务器技术。

  2011年6月,数据集成供应商Informatica发布了其旗舰产品,产品设计初衷是处理当今事务和社会媒体所产生的海量数据,同时支持Hadoop。

  2011年7月,Yahoo!和硅谷风险投资公司 Benchmark Capital创建了Hortonworks 公司,旨在让Hadoop更加鲁棒(可靠),并让企业用户更容易安装、管理和使用Hadoop。

  2011年8月,Cloudera公布了一项有益于合作伙伴生态系统的计划——创建一个生态系统,以便硬件供应商、软件供应商以及系统集成商可以一起探索如何使用Hadoop更好的洞察数据。

  2011年8月,Dell与Cloudera联合推出Hadoop解决方案——Cloudera Enterprise。Cloudera Enterprise基于Dell PowerEdge C2100机架服务器以及Dell PowerConnect 6248以太网交换机 。

 

http://www.kuqin.com/database/20110918/264964.html 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值