1.HDFS
默认将文件块复制成三份存放
(对于HDFS来说,丢失一个DataNode意味着丢失了存储在它的硬盘上的数据块的副本。假如在任意时间总有超过一个副本存在(默认3个),故障将不会导致数据丢失。当一个硬盘故障时,HDFS会检测到存储在该硬盘的数据块的副本数量低于要求,然后主动创建需要的副本,以达到满副本数状态。)
2.有实时计算能力的组件
Storm
Flink
Spark Streaming
3.hadoop主要组成部分包括:
(1) HDFS
(2) MapReduce
(3) Yarn
4.常见的OLAP多维数据分析包括
上钻、下钻、切片和旋转