clickhouse创建分布式数据库和分布式表

前提:有多个clickhouse节点并在metrika.xml配置分片和副本。

-- 查询cluster集群名称 比如nx_clickhouse_4shards_1replicas
select * from system.clusters;
-- 只在当前节点创建本地数据库
create database test;
drop  database test;
-- nx_clickhouse_4shards_1replicas 是集群名称
drop  database test on cluster nx_clickhouse_4shards_1replicas ;
-- on cluster 会在指定集群中的所有节点下创建同样的数据库,执行后会反馈各节点的执行结果
create database test on cluster nx_clickhouse_4shards_1replicas ;

-- 建本地表(on cluster 会在集群的各个节点上建表, 但是insert数据只会在当前节点)
drop table test.cmtest on cluster nx_clickhouse_4shards_1replicas;
CREATE TABLE test.cmtest on cluster nx_clickhouse_4shards_1replicas
(
	`id` String COMMENT 'id',
	`nginxTime` DateTime COMMENT 'nginxTime'
)
ENGINE = MergeTree()
PARTITION BY toYYYYMMDD(nginxTime)
ORDER BY (nginxTime);
 
insert into test.cmtest  values ('1',now());
insert into test.cmtest  values ('10',now());
insert into test.cmtest  values ('100',now()+3600*24);
-- insert数据只会在当前节点查到
select * from test.cmtest ;
-- 分布式引擎本身不存储数据, 但可以在多个服务器上进行分布式查询。
-- 分布式表(对分布式表的查询会查询到所有节点上的数据)
create TABLE test.cmtest_dist on cluster nx_clickhouse_4shards_1replicas as test.cmtest
ENGINE = Distributed("nx_clickhouse_4shards_1replicas", "test", "cmtest", rand());

-- 对本地insert只插入到本地
insert into test.cmtest  values ('100108',now()+3600*24);
-- 对分布式表插入会根据规则路由到某个节点
insert into test.cmtest_dist  values ('1004000',now()+3600*24);
-- 对分布式表的查询会查询到所有节点上的数据
select * from test.cmtest_dist;
-- 本地表只查询到当前节点上的数据
select * from test.cmtest;

-- 删除分布式表不会删除数据,重新创建分布式表后仍然可以查询到全量数据
drop table test.cmtest_dist on cluster nx_clickhouse_4shards_1replicas;
-- 删除本地表会删除数据
drop table test.cmtest on cluster nx_clickhouse_4shards_1replicas;

CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
(
name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1] [TTL expr1],
name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2] [TTL expr2],

INDEX index_name1 expr1 TYPE type1(…) GRANULARITY value1,
INDEX index_name2 expr2 TYPE type2(…) GRANULARITY value2
) ENGINE = MergeTree()
ORDER BY expr
[PARTITION BY expr]
[PRIMARY KEY expr]
[SAMPLE BY expr]
[TTL expr [DELETE|TO DISK ‘xxx’|TO VOLUME ‘xxx’], …]
[SETTINGS name=value, …]

CREATE TABLE IF NOT EXISTS all_hits ON CLUSTER cluster (p Date, i Int32) ENGINE = Distributed(cluster, default, hits)

参考 https://clickhouse.com/docs/zh/engines/table-engines/special/distributed/#distributed
https://clickhouse.com/docs/zh/engines/table-engines/mergetree-family/mergetree
https://blog.csdn.net/Urbanears/article/details/122089428
https://blog.csdn.net/weixin_45912745/article/details/123405029
https://cloud.tencent.com/developer/article/1986902
https://www.cnblogs.com/yoyo1216/p/13731232.html
https://blog.csdn.net/weixin_46999292/article/details/113281753

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
DataX Web是在DataX之上开发的分布式数据同步工具,提供简单易用的操作界面,降低用户使用DataX的学习成本,缩短任务配置间,避免配置过程中出错。用户可通过页面选择数据源即可创建数据同步任务,RDBMS数据源可批量创建数据同步任务,支持实查看数据同步进度及日志并提供终止同步功能,集成并二次开发xxl-job可根据间、自增主键增量同步数据。 任务"执行器"支持集群部署,支持执行器多节点路由策略选择,支持超控制、失败重试、失败告警、任务依赖,执行器CPU.内存.负载的监控等等。后续还将提供更多的数据源支持、数据转换UDF、结构同步、数据同步血缘等更为复杂的业务场景。 DataX Web安装环境: Language: Java 8(jdk版本建议1.8.201以上) Python2.7(支持Python3需要修改替换datax/bin下面的三个python文件,替换文件在doc/datax-web/datax-python3下) Environment: MacOS, Windows,Linux Database: Mysql5.7 DataX Web功能特点: 1、通过Web构建DataX Json; 2、DataX Json保存在数据库中,方便任务的迁移,管理; 3、Web实查看抽取日志,类似Jenkins的日志控制台输出功能; 4、DataX运行记录展示,可页面操作停止DataX作业; 5、支持DataX定任务,支持动态修改任务状态、启动/停止任务,以及终止运行中任务,即生效; 6、调度采用中心式设计,支持集群部署; 7、任务分布式执行,任务"执行器"支持集群部署; 8、执行器会周期性自动注册任务, 调度中心将会自动发现注册的任务并触发执行; 9、路由策略:执行器集群部署提供丰富的路由策略,包括:第一个、最后一个、轮询、随机、一致性HASH、最不经常使用、最近最久未使用、故障转移、忙碌转移等; 10、阻塞处理策略:调度过于密集执行器来不及处理的处理策略,策略包括:单机串行(默认)、丢弃后续调度、覆盖之前调度; 11、任务超控制:支持自定义任务超间,任务运行超将会主动中断任务; 12、任务失败重试:支持自定义任务失败重试次数,当任务失败将会按照预设的失败重试次数主动进行重试; 13、任务失败告警;默认提供邮件方式失败告警,同预留扩展接口,可方便的扩展短信、钉钉等告警方式; 14、用户管理:支持在线管理系统用户,存在管理员、普通用户两种角色; 15、任务依赖:支持配置子任务依赖,当父任务执行结束且执行成功后将会主动触发一次子任务的执行, 多个子任务用逗号分隔; 16、运行报:支持实查看运行数据,以及调度报,如调度日期分布图,调度成功分布图等; 17、指定增量字段,配置定任务自动获取每次的数据区间,任务失败重试,保证数据安全; 18、页面可配置DataX启动JVM参数; 19、数据源配置成功后添加手动测试功能; 20、可以对常用任务进行配置模板,在构建完JSON之后可选择关联模板创建任务; 21、jdbc添加hive数据源支持,可在构建JSON页面选择数据源生成column信息并简化配置; 22、优先通过环境变量获取DataX文件目录,集群部署不用指定JSON及日志目录; 23、通过动态参数配置指定hive分区,也可以配合增量实现增量数据动态插入分区; 24、任务类型由原来DataX任务扩展到Shell任务、Python任务、PowerShell任务; 25、添加HBase数据源支持,JSON构建可通过HBase数据源获取hbaseConfig,column; 26、添加MongoDB数据源支持,用户仅需要选择collectionName即可完成json构建; 27、添加执行器CPU、内存、负载的监控页面; 28、添加24类插件DataX JSON配置样例 29、公共字段(创建间,创建人,修改间,修改者)插入或更新自动填充 30、对swagger接口进行token验证 31、任务增加超间,对超任务kill datax进程,可配合重试策略避免网络问题导致的datax卡死。 32、添加项目管理模块,可对任务分类管理; 33、对RDBMS数据源增加批量任务创建功能,选择数据源,即可根据模板批量生成DataX同步任务; 34、JSON构建增加ClickHouse数据源支持; 35、执行器CPU.内存.负载的监控页面图形化; 36、RDBMS数据源增量抽取增加主键自增方式并优化页面参数配置; 37、更换MongoDB数据源连接方式,重构HBase数据源JSON构建模块; 38、脚本类型任务增加停止功能; 39、rdbms json构建增加postSql,并支持构建多个preSq
ClickHouse创建分布式可以通过以下步骤完成: 1. 首先,在 ClickHouse 集群中的每个节点上配置相同的集群名称。在每个节点的配置文件(通常是 `config.xml`)中,找到 `<remote_servers>` 节点,并确保它的内容在所有节点上是一样的。例如,你可以添加以下配置项: ``` <remote_servers> <cluster> <shard> <replica> <host>node1.example.com</host> <port>9000</port> </replica> <replica> <host>node2.example.com</host> <port>9000</port> </replica> ... </shard> ... </cluster> ... </remote_servers> ``` 其中 `node1.example.com`、`node2.example.com` 等是你集群中的每个节点的主机名和端口号。 2. 然后,在 ClickHouse创建一个分布式。使用以下语法: ```sql CREATE TABLE distributed_table_name ( ... ) ENGINE = Distributed('cluster', 'database', 'table', hash_function); ``` 其中: - `distributed_table_name` 是你要创建分布式的名称; - `cluster` 是你在第一步中配置的集群名称; - `database` 是要分布式存储该数据的数据库名称; - `table` 是要分布式存储该数据的名称; - `hash_function` 是用于确定数据行在集群中的哪个节点上存储的哈希函数。它可以是 ClickHouse 支持的任何哈希函数,如 `cityHash64`, `sipHash64`, `murmurHash64` 等。 3. 最后,将数据插入到分布式中,ClickHouse 会自动将数据分发到集群中的不同节点上存储。 请注意,要成功创建和使用分布式,你需要确保 ClickHouse 集群的配置正确,并且集群中的各个节点都正常运行和可访问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值