HDFS
使用列式存储格式Apache Parquet,Apache ORC,适合离线分析,不支持单条纪录级别的update操作,随机读写性能差(一次写入,多次读取)
Hbase
可以进行高效随机读写,却并不适用于基于SQL的数据分析方向,大批量数据获取时的性能较差
Kudu
KUDU较好的解决了HDFS与HBASE的这些缺点,它不及HDFS批处理快,也不及HBase 随机读写能力强,但是反过来它比HBase批处理快(适用于OLAP的分析场景),而且比HDFS随机读写能力强(适用于实时写入或者更新的场景),这就是它能解决的问题
图形化理解
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210330125112762.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L20wXzQ2MTk3MzM2,size_16,color_FFFFFF,t_70)