Apache Druid 数据存储
文章平均质量分 97
不埋雷的探长
深耕BigData技术,专注于大数据技术领域的知识分享。CSDN认证博客专家,目前就职于腾讯,内推可私聊~ 热爱软件,喜欢编程的阳光小伙子~ 千万千万不要放弃学习,千万千万要搞好人际关际,共勉~
展开
-
Apache Druid 集群搭建及使用【超全面】
一、Druid 简介1.1 大数据分析平台架构分类数据分析的基础架构可以分为以下几类:使用Hadoop/Spark 进行分析 将Hadoop/Spark 的结果导入 RDBMS 中提供数据分析;补充说明:RDBMS一般指关系数据库管理系统 将结果注入到容量更大的NoSQL中,解决数据分析的存储瓶颈,例如:HBase 将数据源进行流式处理,对接流式计算框架,例如:Flink、Spark Streaming,结果保存到RDBMS、NoSQL中 将数据源进行流式处理,对接分析数据库,例如:原创 2021-01-01 23:07:19 · 3800 阅读 · 9 评论 -
Apache Druid 从Kafka加载数据 -- 全流程分析
目录一、Kafka 创建topic、生产者二、向kafka生产数据三、Apache Druid 配置DataSource 数据源1) Start2) Connect3) Pase Data4) Pase Time5) Transform【可跳过】6)Filter 【可跳过】7)Configure Schema【重点配置】8)Partition9) Tune10) Pulish11) Edit Json spec四、查询示例说明一、Kafka 创原创 2021-01-01 23:03:51 · 1513 阅读 · 3 评论