Hadoop带有一个分布式的文件系统叫做HDFS,它代表Hadoop分布式的文件系统。HDFS是Hadoop的标准性文件系统。
这HDFS的设计
HDFS是一个为了使用流数据存储大量文件的文件系统,运行在硬件簇。
流数据获得:
HDFS被建立大部分有效的数据处理模式是写一次和多次读写。一个数据基本上产生或者拷贝从源,然后各种分析被执行在那数据。每一次分析都涉及大量的部分,读取真个数据表的时间是更重要的比着传统的读第一个记录。
标准硬件
Hadoop并不需要昂贵和高可靠性的硬件来运行。它被设计运行在标准的硬件对于那些节点失败的机会是很高的,至少对大量的簇。HDFS被设计来运行工作没有一个通知打断在面对这样的失败。
它是值得检查对于使用HDFS的应用程序并没有工作很好。当这可能改变在未来,在这些地方HDFS并不适合。
低-延迟的数据获得
需要低-延迟获得的数据的应用程序,例如几十毫秒的范围,不适合HDFS在运行。
大量的小文件:
因为这namenode拥有文件系统的属性数据在内存中,这下载了在一个文件系统的文件数量有在namenode的大量内存大管理。
多重的写者,任意的文件修改