01数据导论
数据的定义:
数据的价值:
02大数据的诞生
诞生背景:
独立的计算机->基于TCP/IP协议的计算机(实现互联互通)->全球互联网出现,个人、企业都可参与,导致数据量剧增->数据量大,一个独立计算机顶不住,于是:
分布式技术的出现:
在数据量巨大的基础下,以服务器的数量来解决大规模数据处理问题。
Apache Hadoop的开源:
2008年之后,一个重磅级的技术框架:Apache Hadoop,开源了。基于这个开源,广大企业就有了开源的分布式数据处理解决方案。
也是存、用、传。
Hadoop开源后很多大数据技术的涌现:
从08年Hadoop开源后出现了很多大数据技术:
03大数据概述
什么是大数据:
大数据的5v特征:
大数据的核心工作:
从海量的高增长、多类别、低信息密度的数据中挖掘出高质量的结果。
三个核心工作(数据都是海量的数据):
- 数据存储
- 数据计算
- 数据传输
所以后续学习的技术也围绕这三点来进行,即:
- 分布式存储相关技术栈
- 分布式计算相关技术栈
- 海量数据传输的相关技术栈
04大数据软件生态
大数据软件生态基本围绕三大核心工作展开。
数据存储:
数据计算:
数据传输:
05Apache Hadoop概述
什么是Hadoop:
为什么学习Hadoop:
Hadoop的功能:
Hadoop是一个整体,能细分成三个功能组件,分别用于分布式存储、计算、资源调度: