大数据之旅--Hadoop的发展史

一、 大数据概念:

大数据(Big Data):指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。

大数据主要解决:海量数据的采集、存储和分析计算问题。

数据存储单位(按从小到大的顺序):bit、Byte、KB、MB、GB、TB、PB、EB、ZB、YB、BB、NB、DB。

二、 大数据特点(4V):

1.Volume(大量): 很多大企业的数据量达到EB量级。

2.Velocity(高速): 大数据区分于传统数据挖掘的最显著特征。根据IDC的“数字宇宙”的报告,预计到2025年,全球数据使用量将达到163ZB。在海量的数据面前,处理数据的效率对于企业来说就很重要了。
eg:天猫双十一:2020年96s,天猫交易额超过100亿。

3.Variety(多样): 这种类型的多样性也让数据被分为结构化数据非结构化数据。相对于以往便于存储的以数据库/文本为主的机构化数据,非结构化数据越来越多,包括网络日志、音频、
视频、图片、地理位置信息等,这些多类型的数据对数据的处理能力提出了更高要求。

4.Value(低价值密度): 价值密度的高低与数据总量的大小成反比。

三、Hadoop

1. Hadoop是什么?

1.Hadoop是一个由Apache基金会所开发的分布式系统基础架构
2.主要解决:海量数据的存储和海量数据的分析计算问题;
3.广义上来说,Hadoop通常是指一个更广泛的概念—Hadoop生态圈

在这里插入图片描述

2. Hadoop发展史

1.Hadoop创始人Doug Cutting,为了实现与Google类似的全文搜索功能,他在Lucene框架基础上进行优化升级,查询引擎和搜索引擎。
2.2001年年底Lucene成为Apache基金会的一个子项目;
3.对于海量数据的场景,Lucene框架面对与Google同样的困难,存储海量数据困难,检索海量数据速度慢;
4.学习和模仿Google解决这些问题的办法:微型版Nutch;
5.可以说Google是Hadoop的思想之源(Google在大数据方面的三篇论文):GFS—>HDFS; MapReduce—>MR; BigTable—>HBase;
6.2003-2004年,Google公开了部分GFS和MapReduce思想的细节,以此为基础Goug Cutting等人用2年业余时间实现了DFS和MapReduce机制,使Nutch性能飙升;
7.2005年Hadoop作为Lucene的子项目Nutch的一部分正式引入Apache基金会;
8.2006年3月,MapReduce和Nutch Distributed File System(NDFS)分别被纳入到Hadoop项目中,Hadoop就此正式诞生,标志着大数据时代来临。
9.名字来源于Doug Cutting儿子的玩具大象。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值