CentOS 7.3 部署安装clickhouse 21.1.6.13.2 集群

一、下载、安装

主机列表

主机部署服务
192.168.1.128clickhouse-client、clickhouse-server、zookeeper
192.168.1.129clickhouse-client、clickhouse-server、zookeeper
192.168.1.130clickhouse-client、clickhouse-server、zookeeper

下载

官方网站 找到需要下载的clickhouse 离线 rpm包,主要下载的几个包是

  • clickhouse-client
  • clickhouse-common-static
  • clickhouse-common-static-dbg
  • cliclhouse-server
  • clickhouse-test

注意要下载相同版本的的包,我这里下载的是21.1.6.13.2 版本

安装

在已下载的rpm包同级目录执行命令

>>> sudo yum localinstall clickhouse-common* 
>>> sudo yum localinstall cliclhouse-server-* clickhouse-client-* clickhouse-test*

二、配置

安装完成后,clickhouse的配置文件在 /etc/clickhouse-server、/etc/clickhouse-client/ 。主要关注配置文件/etc/clickhouse-server/conf.xml

  1. 集群信息,定义集群名,集群分片数和副本数,分片和副本的主机划分
  2. 修改zookeeper 地址
  3. 修改path , 重新指定 clickhouse的数据存储路径
  4. 修改macros、前面三个配置,每个clickhouse-server 都一样,macros 是每个节点的唯一的。

定义集群信息

每台主机只能部署一个clickhouse-server ,一个clickhouse-server 在同一个集群内 只能存储单个partiton的单个 replica。这里只有三台主机,我们配置一个3partition、1副本的集群

<!-- 集群配置 -->
<clickhouse_remote_servers>
    <!-- 3分片1备份 -->
    <cluster_3shards_1replicas>
        <!-- 数据分片1  -->
        <shard>
            <replica>
                <host>192.168.1.128</host>
                <port>9000</port>
            </replica>
        </shard>
        <!-- 数据分片2  -->
        <shard>
            <replica>
                <host>192.168.1.129</host>
                <port>9000</port>
            </replica>
        </shard>
        <!-- 数据分片3  -->
        <shard>
            <replica>
                <host>192.168.1.130</host>
                <port>9000</port>
            </replica>
        </shard>
    </cluster_3shards_1replicas>
</clickhouse_remote_servers>
</yandex>

cluster_3shards_1replicas: 是定义的集群名,可以随便定义
shard: 分片配置端
replica: 分片的副本配置段

可以看到每个shard只有一个 replica ,此时集群只做了数据分片,但是是非高可用的。如果要给3个分片加一个副本,集群得添加3台主机,分别作为添加到3个shard的replica段。

修改zookeeper信息

<zookeeper>
    <node>
        <host>192.168.1.128</host>
        <port>2181</port>
    </node>
    <node>
        <host>192.168.1.129</host>
        <port>2181</port>
    </node>
    <node>
        <host>192.168.1.130</host>
        <port>2181</port>
    </node>

zookeeper 用于存储clickhouse的元数据,可以无限横向扩展的clickhouse节点依赖于zookeeper 的服务发现和元数据管理

修改存储数据的路径

<path>/data/clickhouse/data/</path>
<tmp_path>/data/clickhouse/tmp/</tmp_path>
<user_files_path>/data/clickhouse/user_files</user_files_path>
<listen_host>0.0.0.0</listen_host>

三个path的路径默认都在 /var/lib/clickhouse ,可以手动指定到自定义的数据存储的路径
listen_host 默认只监听到localhost(127.0.0.1),集群跨主机通信会有问题,因此须要修改为监听到所有ip。

4、修改macros

macros 相当于是每个cliclhouse的环境变量。定义macros的作用在于可以用同一个包含macros变量的 SQL在所有的 clickhouse-server节点上执行。

192.168.1.128 节点配置如下

<macros>
    <shard>01</shard>
    <replica>01</replica>
</macros>

192.168.1.129 节点配置如下

<macros>
    <shard>02</shard>
    <replica>01</replica>
</macros>

192.168.1.130 节点配置如下

<macros>
    <shard>03</shard>
    <replica>01</replica>
</macros>

启动clickhouse

sudo systemctl start cliclhouse-server

查看集群节点信息

>>> clickhouse-cli -h 192.168.1.128 --query "select * from system.clusters"

cluster_3shards_1replicas 1 1 1 192.168.1.128 ...
cluster_3shards_1replicas 1 1 1 192.168.1.129 ...
cluster_3shards_1replicas 1 1 1 192.168.1.130 ...
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值