学习着数据科学与大数据技术专业(简称大数据)的我们,对于“大数据”这个词是再熟悉不过了,而每当我们越去了解大数据就越发现有个词也会一直被提及那就是——Hadoop
那Hadoop与大数据有什么关系呢?
所谓大数据,就是从各种类型的数据中,快速获得有价值信息的能力。大数据是需要新处理模式才能具有更强的决策力、洞察力和流程优化能力的海量、高增长率和多样化的信息资产。它是对那些超出正常处理范围和大小、迫使用户采用非传统处理方法的数据集所下的定义。
Hadoop是Apache软件基金会发起的一个项目,是一种分布式数据和计算的框架。它很擅长存储大量的半结构化的数据集。数据可以随机存放,所以一个磁盘的失败并不会带来数据丢失。Hadoop也非常擅长分布式计算——快速地跨多台机器处理大型数据集合。
伴随大数据技术的普及,Hadoop作为数据分布式处理系统的典型代表因其开源的特点和卓越的性能成为一时的新宠,已经成为该领域事实的标准,甚至有人认为大数据就是Hadoop,其实这是一个误区。但Hadoop并不等于大数据,Hadoop只是处理离线数据的分布式存储和处理系统。