文章目录
一、在线加载样本数据
1.1 打开imply
在 【Druid】(四)Apache Druid 部署和配置(单机版 / Docker 容器版 / Kubernetes 集群版) 中,我们完成了单机版的配置,接下来基于 Imply 我们完成今天的入门Demo。
1.2 开始连接到实例Wikipedia 数据集
1.3 加载样本数据
Wikipedia 示例使用Http 数据加载器从URI 路径读取数据,格式为json。可以通过点击采样并继续,对文件前几行的数据进行采样,以确保它是可解析的数据。
1.4 配置汇总
1.5 配置时间戳和分区
1.6 配置要加载的列
1.7 确认并开始摄取
一旦加载器指示数据已被索引,就可以继续下一部分来定义数据立方体并开始可视化数据。
二、离线加载样本数据
如果无法访问公共Web 服务器,则可以从本地文件加载相同的数据集。该quickstart 目录包括一个样本数据集和一个摄取规范来处理数据, 分别命名 wikipedia-2016-06-27-sampled.json
和 wikipedia-index.json
。
要为此摄取规范向Druid 提交索引作业,请从Imply 目录运行以下命令:
bin/post-index-task --file quickstart/wikipedia-index.json
成功运行将生成类似于以下内容的日志:
Beginning indexing data for wikipedia
Task started: index_wikipedia_2017-12-05T03:22:28.612Z
Task log:
http://localhost:8090/druid/indexer/v1/task/index_wikipedia_2017-
12-05T03:22:28.612Z/log
Task status:
http://localhost:8090/druid/indexer/v1/task/index_wikipedia_2017-
12-05T03:22:28.612Z/status
Task index_wikipedia_2017-12-05T03:22:28.612Z still running...
Task index_wikipedia_2017-12-05T03:22:28.612Z still running...
Task finished with status: SUCCESS
Completed indexing data for wikipedia. Now loading indexed data onto
the cluster...
wikipedia is 0.0% finished loading...
wikipedia is 0.0% finished loading...
wikipedia is 0.0% finished loading...
wikipedia loading complete! You may now query your data
三、创建数据立方体
通过单击顶部栏上的相应按钮切换到Imply 的“ 可视化”部分。从这里,您可以创建数据立方体来建模数据,浏览这些立方体,并将视图组织到仪表板中。首先单击+创建新数据多维数据集。
在出现的对话框中,确保wikipedia 选中此源并选择自动填充尺寸和度量。单击下一步继续:创建数据立方体。
四、可视化数据立方体
单击“ 保存”后,将自动加载此新数据多维数据集的数据立方体视图。将来,还可以通过从“ 可视化”屏幕单击数据立方体的名称(在此示例中为“Wikipedia”)来加载此视图。
在这里,可以通过过滤并在任何维度上拆分数据集来探索数据集。对于数据的每次过滤拆分,将看到所选度量的总值。
例如,在维基百科数据集上,通过在page 上拆分和按事件数排序查看最常编辑的page)。
数据立方体视图根据分割数据的方式建议不同的可视化。如果拆分字符串列,则数据最初将显示为表格。如果按时间拆分,数据立方体视图将推荐时间序列图,如果在数字列上拆分,则会到条形图。
五、运行SQL
访问SQL 编辑器。
SELECT page, COUNT(*) AS Edits
FROM wikipedia
WHERE "__time" BETWEEN TIMESTAMP '2016-06-27 00:00:00' AND TIMESTAMP
'2016-06-28 00:00:00'
GROUP BY page
ORDER BY Edits
DESC LIMIT 5
应该看到如下结果: