hadoop文件系统为什么不支持随机写
1:hadoop设计的初衷是大规模数据的计算和olap分析, 应用场景区别与数据库,所以在HDFS设计时候就侧重在一次写入多次读取2: 假设现在我们在HDFS中加入了随机写.那么为了正确性我们需要保障的东西有哪些?鉴于hadoop设计之初是想在廉价硬件上执行大规模的数据计算,HDFS是设计的必须支持CAP理论之分区容错性(partition tolerance)来抵消不可靠硬件随时会宕机的...
原创
2019-06-07 11:18:00 ·
3986 阅读 ·
0 评论