详解 ClickHouse 的查询优化

一、单表查询

1. 使用 prewhere 替代 where

  • prewhere 和 where 语句的作用相同,都是用来过滤数据
  • prewhere 和 where 语句的不同在于:
    • prewhere 只支持 MergeTree 族系列引擎的表
    • prewhere 首先会读取指定的列数据来判断数据过滤,等待数据过滤之后再读取 select 声明的列字段来补全其余属性
    • prewhere 会自动优化执行过滤阶段的数据读取方式,降低 io 操作
  • 当查询列明显多于筛选列时使用 prewhere 可十倍提升查询性能
  • prewhere 默认是开启的,但下面这些情况需要手动指定 prewhere
    • 使用常量表达式
    • 使用默认值为 alias 类型的字段
    • 包含了 arrayJOIN,globalIn,globalNotIn 或者 indexHint 的查询
    • select 查询的列字段和 where 的谓词相同
    • 使用了主键字段
--先关闭 where 自动转 prewhere(默认情况下, where 条件会自动优化成 prewhere)
set optimize_move_to_prewhere=0;

--使用 where 语句
select WatchID,
 JavaEnable,
 Title,
 GoodEvent,
 EventTime,
 EventDate,
 CounterID,
 ClientIP,
 ClientIP6,
 RegionID,
 UserID,
 CounterClass,
 OS,
 UserAgent,
 URL,
 Referer,
 URLDomain,
 RefererDomain,
 Refresh,
 IsRobot,
 RefererCategories,
 URLCategories,
 URLRegions,
 RefererRegions,
 ResolutionWidth,
 ResolutionHeight,
 ResolutionDepth,
 FlashMajor,
 FlashMinor,
 FlashMinor2
from datasets.hits_v1 where UserID='3198390223272470366';

--使用 prewhere 关键字
select WatchID,
 JavaEnable,
 Title,
 GoodEvent,
 EventTime,
 EventDate,
 CounterID,
 ClientIP,
 ClientIP6,
 RegionID,
 UserID,
 CounterClass,
 OS,
 UserAgent,
 URL,
 Referer,
 URLDomain,
 RefererDomain,
 Refresh,
 IsRobot,
 RefererCategories,
 URLCategories,
 URLRegions,
 RefererRegions,
 ResolutionWidth,
 ResolutionHeight,
 ResolutionDepth,
 FlashMajor,
 FlashMinor,
 FlashMinor2
from datasets.hits_v1 prewhere UserID='3198390223272470366';

2. 数据采样

  • 采样修饰符只有在 MergeTree engine 表中才有效,且在创建表时需要指定采样策略
  • 通过采样运算可极大提升数据分析的性能
SELECT 
	Title,
	count(*) AS PageViews
FROM hits_v1
SAMPLE 0.1 --表示进行where过滤后再采样其中 10% 的数据,也可以是具体的条数
WHERE CounterID =57
GROUP BY Title
ORDER BY PageViews DESC 
LIMIT 1000

3. 列裁剪和分区裁剪

  • 列裁剪:查询时避免使用 select * ,应该直接 select 要查询的具体字段名,字段越少,消耗的 io 资源越少,性能就会越高
  • 分区裁剪:查询时使用 prewhere 筛选对应分区字段条件的数据,避免全表扫描

4. order by 结合 where 和 limit

  • 避免全局的 order by 排序
  • 搭配 where 条件和 limit 语句进行 order by 会提升性能和减少数据扫描量
--正例:
SELECT 
	UserID,
	Age
FROM hits_v1
WHERE CounterID=57
ORDER BY Age DESC 
LIMIT 1000

--反例:
SELECT 
	UserID,
	Age
FROM hits_v1
ORDER BY Age DESC

5. 避免构建虚拟列

  • 虚拟列:不是表中实际的字段,而是通过表中字段计算转换出来的列
  • 如非必须,不要在结果集上构建虚拟列,虚拟列非常消耗资源浪费性能,可以考虑在前端进行处理,或者在表中构造实际字段进行额外存储
--反例:IncRate 为虚拟列
SELECT Income,Age,Income/Age as IncRate FROM datasets.hits_v1;

--正例:拿到 Income 和 Age 后,考虑在前端进行处理,或者在表中构造实际字段进行额外存储
SELECT Income,Age FROM datasets.hits_v1;

6. 使用 uniqCombined 替代 distinct

  • uniqCombined 底层采用类似 HyperLogLog 算法实现,性能可提升 10 倍以上,但有 2% 左右的数据误差
  • distinct 会使用 uniqExact 精确去重
select count(distinct UserID) from datasets.hits_v1;

SELECT uniqCombined(UserID) from datasets.hits_v1;

7. 其他注意事项

  • 查询熔断:为了避免因个别慢查询引起的服务雪崩的问题,除了可以为单个查询设置超时以外,还可以配置周期熔断,在一个查询周期内,如果用户频繁进行慢查询操作超出规定阈值后将无法继续进行查询操作
  • 关闭虚拟内存:物理内存和虚拟内存的数据交换,会导致查询变慢,资源允许的情况下关闭虚拟内存
  • 配置 join_use_nulls:为每一个账户添加 join_use_nulls 配置,左表中的一条记录在右表中不存在,右表的相应字段会返回该字段相应数据类型的默认值,而不是标准 SQL 中的 Null 值
  • 批量写入时先排序:批量写入数据时,必须控制每个批次的数据中涉及到的分区的数量,在写入之前最好对需要导入的数据进行排序。无序的数据或者涉及的分区太多,会导致 ClickHouse 无法及时对新导入的数据进行合并,从而影响查询性能
  • 关注 CPU:CPU 一般在 50%左右会出现查询波动,达到 70%会出现大范围的查询超时,CPU 是最关键的指标,要非常关注

二、多表关联

1. 数据准备

--创建小表
CREATE TABLE visits_v2
ENGINE = CollapsingMergeTree(Sign)
PARTITION BY toYYYYMM(StartDate)
ORDER BY (CounterID, StartDate, intHash32(UserID), VisitID)
SAMPLE BY intHash32(UserID)
SETTINGS index_granularity = 8192
as select * from visits_v1 limit 10000;

--创建 join 结果表:避免控制台疯狂打印数据
CREATE TABLE hits_v2
ENGINE = MergeTree()
PARTITION BY toYYYYMM(EventDate)
ORDER BY (CounterID, EventDate, intHash32(UserID))
SAMPLE BY intHash32(UserID)
SETTINGS index_granularity = 8192
as select * from hits_v1 where 1=0; --不取数据只取表结构

2. 用 in 代替 join

ClickHouse 的 join 是将右表(无论 left join、right join 还是 inner join)的数据全部加载到内存(可能 OOM),然后左表的每一条数据都去内存中查询能否匹配

--正例:使用 in
insert into table hits_v2
select a.* from hits_v1 a where a.CounterID in (select CounterID from visits_v1);

--反例:使用 join
insert into table hits_v2
select a.* from hits_v1 a join visits_v1 b on a.CounterID=b.CounterID;

3. 大小表 join

因为 ClickHouse 进行 join 的底层特性,所以必须要满足小表在右的原则

--正例:小表在右
insert into table hits_v2
select a.* from hits_v1 a left join visits_v2 b on a.CounterID=b.CounterID;

--反例:大表在右
insert into table hits_v2
select a.* from visits_v2 b left join hits_v1 a on a.CounterID=b.CounterID;

4. 注意谓词下推

ClickHouse 在 join 查询时不会主动发起谓词下推的操作,需要每个子查询提前完成过滤操作

Explain syntax
select a.* from hits_v1 a left join visits_v2 b on a. CounterID=b.
CounterID
having a.EventDate = '2014-03-17';

Explain syntax
select a.* from hits_v1 a left join visits_v2 b on a. CounterID=b.
CounterID
having b.StartDate = '2014-03-17';

insert into hits_v2
select a.* from hits_v1 a left join visits_v2 b on a. CounterID=b.
CounterID
where a.EventDate = '2014-03-17';

insert into hits_v2
select a.* from (
 select * from
 hits_v1
 where EventDate = '2014-03-17'
) a left join visits_v2 b on a. CounterID=b. CounterID;

5. 分布式表使用 global

两张分布式表上的 IN 和 JOIN 之前必须加上 GLOBAL 关键字,右表只会在接收查询请求的那个节点查询一次,并将其分发到其他节点上。如果不加 GLOBAL 关键字的话,每个节点都会单独发起一次对右表的查询,而右表又是分布式表,就导致右表一共会被查询 N²次(N是该分布式表的分片数量),这就是查询放大,会带来很大开销。

6. 使用字典表

将一些需要关联分析的业务创建成字典表进行 join 操作,前提是字典表不宜太大,因为字典表会常驻内存

  • 15
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值