Hadoop核心就是HDFS和MapReduce
HDFS:Hadoop Distributed File System,Hadoop分布式文件系统,能提供高吞吐量的数据访问,适合超大集群的应用程序。
HDFS特点:
1.大数据文件,非常适合上T级别的大文件或者一大推数据文件的存储;
2.文件分块存储,HDFS将一个完整的大文件平均存储到不同的计算器上,意义在于读取文件时可以从多个主机不同区块读取文件,效率非常高
3.流式数据访问,一次写入,多次读写,支持动态的改变文件内容
4.廉价硬件,HDFS可应用在普通的PC上,这样可以用几十台廉价的计算机就可以撑起一个大数据集群
5.硬件故障问题解决,HDFS会认为所有计算机都可能会有问题,为了防止某个主机失效读取不到该主机的块文件,它将同一个文件块的副本分配到其他几个主机上,如果其中一台失效,可以迅速找另一个主机读取副本文件
MapReduce:是一套从海量数据源中提取分析元素最后返回结果的模型
一般用HDFS来存海量数据,用MapReduce来分析、提取数据