Kudu 常见的几个应用场景

Kudu 常见的几个应用场景

  • 实时更新的应用。刚刚到达的数据就马上要被终端用户使用访问到。
  • 时间序列相关的应用,需要同时支持:

    根据海量历史数据查询。
必须非常快地返回关于单个实体的细粒度查询。

  • 实时预测模型的应用,支持根据所有历史数据周期地更新模型。

  有关这些和其他方案的更多信息,请参阅 Example Use Cases。

 

 

 

 

Streaming Input with Near Real Time Availability(具有近实时可用性的流输入)

  数据分析中的一个共同挑战就是新数据快速而不断地到达,同样的数据需要靠近实时的读取,扫描和更新。Kudu 通过高效的列式扫描提供了快速插入和更新的强大组合,从而在单个存储层上实现了实时分析用例。

 

Time-series application with widely varying access patterns(具有广泛变化的访问模式的时间序列应用)

  time-series(时间序列)模式是根据其发生时间组织和键入数据点的模式。这可以用于随着时间的推移调查指标的性能,或者根据过去的数据尝试预测未来的行为。例如,时间序列的客户数据可以用于存储购买点击流历史并预测未来的购买,或由客户支持代表使用。虽然这些不同类型的分析正在发生,插入和更换也可能单独和批量地发生,并且立即可用于读取工作负载。Kudu 可以用 scalable (可扩展)和 efficient (高效的)方式同时处理所有这些访问模式。由于一些原因,Kudu 非常适合时间序列的工作负载。随着 Kudu 对基于 hash 的分区的支持,结合其对复合 row keys(行键)的本地支持,将许多服务器上的表设置成很简单,而不会在使用范围分区时通常观察到“hotspotting(热点)”的风险。Kudu 的列式存储引擎在这种情况下也是有益的,因为许多时间序列工作负载只读取了几列,而不是整行。 过去,您可能需要使用多个数据存储来处理不同的数据访问模式。这种做法增加了应用程序和操作的复杂性,并重复了数据,使所需存储量增加了一倍(或更糟)。Kudu 可以本地和高效地处理所有这些访问模式,而无需将工作卸载到其他数据存储。

 

Predictive Modeling(预测建模)

  数据科学家经常从大量数据中开发预测学习模型。模型和数据可能需要在学习发生时或随着建模情况的变化而经常更新或修改。此外,科学家可能想改变模型中的一个或多个因素,看看随着时间的推移会发生什么。在 HDFS 中更新存储在文件中的大量数据是资源密集型的,因为每个文件需要被完全重写。在 Kudu,更新发生在近乎实时。科学家可以调整值,重新运行查询,并以秒或分钟而不是几小时或几天刷新图形。此外,批处理或增量算法可以随时在数据上运行,具有接近实时的结果。

 

Combining Data In Kudu With Legacy Systems(结合 Kudu 与遗留系统的数据)

  公司从多个来源生成数据并将其存储在各种系统和格式中。例如,您的一些数据可能存储在 Kudu,一些在传统的 RDBMS 中,一些在 HDFS 中的文件中。您可以使用 Impala 访问和查询所有这些源和格式,而无需更改旧版系统。



本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/7607443.html,如需转载请自行联系原作者

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个示例的Shell脚本,用于在Kudu和HDFS上执行一些常见的操作: ```bash #!/bin/bash # 定义Hadoop和Kudu的安装路径以及相关命令 HADOOP_HOME=/path/to/hadoop KUDU_HOME=/path/to/kudu HDFS_BIN=$HADOOP_HOME/bin/hdfs KUDU_BIN=$KUDU_HOME/bin/kudu # 启动Hadoop集群 start_hadoop() { $HADOOP_HOME/sbin/start-dfs.sh } # 停止Hadoop集群 stop_hadoop() { $HADOOP_HOME/sbin/stop-dfs.sh } # 启动Kudu集群 start_kudu() { $KUDU_BIN master start $KUDU_BIN tserver start } # 停止Kudu集群 stop_kudu() { $KUDU_BIN tserver stop $KUDU_BIN master stop } # 创建HDFS目录 create_hdfs_dir() { $HDFS_BIN dfs -mkdir /path/to/directory } # 创建Kudu表格 create_kudu_table() { $KUDU_BIN table create table_name \ --schema "column_name:data_type, ..." \ --partitioning "column_name:hash(num_partitions)" } # 运行示例命令 start_hadoop # 启动Hadoop集群 start_kudu # 启动Kudu集群 create_hdfs_dir # 创建HDFS目录 create_kudu_table # 创建Kudu表格 # 根据需要执行其他操作 stop_kudu # 停止Kudu集群 stop_hadoop # 停止Hadoop集群 ``` 请注意,此脚本仅提供了一些基本的操作示例,并且需要根据您的实际环境和需求进行修改。确保将`/path/to/hadoop`和`/path/to/kudu`替换为您的Hadoop和Kudu的安装路径,并根据您的需求自定义其他命令和参数。 此外,您还可以根据需要添加其他操作,例如数据导入导出、查询等。确保在执行脚本之前,您已经正确配置了Hadoop和Kudu的环境,并具备足够的权限执行所需的操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值