作者:耿宏宇

1 表引擎简述

1.1 官方描述

MergeTree 系列的引擎被设计用于插入极大量的数据到一张表当中。数据可以以数据片段的形式一个接着一个的快速写入,数据片段在后台按照一定的规则进行合并。相比在插入时不断修改(重写)已存储的数据,这种策略会高效很多。

ReplacingMergeTree 引擎和 MergeTree 的不同之处在于它会删除排序键值相同的重复项。

数据的去重只会在数据合并期间进行。合并会在后台一个不确定的时间进行,因此你无法预先作出计划。有一些数据可能仍未被处理。尽管你可以调用 OPTIMIZE 语句发起计划外的合并,但请不要依靠它,因为 OPTIMIZE 语句会引发对数据的大量读写。

1.2 本地表语法

CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
(
name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1],
name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2],
...
) ENGINE = ReplacingMergeTree([ver])
[PARTITION BY expr]
[PRIMARY KEY expr]
[ORDER BY expr]
[SAMPLE BY expr]
[TTL expr [DELETE|TO DISK 'xxx'|TO VOLUME 'xxx'], ...]
[SETTINGS name=value, ...]

参数介绍

CREATE TABLE [IF NOT EXISTS] [db.]table_name [ON CLUSTER cluster]
(
name1 [type1] [DEFAULT|MATERIALIZED|ALIAS expr1],
name2 [type2] [DEFAULT|MATERIALIZED|ALIAS expr2],
...
) ENGINE = Distributed(cluster, database, table[, sharding_key[, policy_name]])
[SETTINGS name=value, ...]

参数介绍

2 键的概念

Clickhouse 的部署,分为单机模式和集群模式,还可以开启副本。两种模式,数据表在创建语法、创建步骤和后续的使用方式上,存在一定的差异。

在定义表结构时,需要指定不同的键,作用如下。

分片:所有分片节点的权重加和得到 S,可以理解为 sharing 动作取模的依据,权重 X=W/S。分片键 Mod S 得到的值,与哪个分片节点匹配,则会写入哪个分片。不同分片可能存在于不同的集群节点,即便不同分片在同一节点,但 ck 在 merge 时,维度是同一分区 + 同一分片,这是物理文件的合并范围。

如果我们权重分别设置为 1,2,3 那么总权重是 6,那么总区间就是 [0,6),排在 shard 配置第一位的 node01,权重占比为 1/6,所以属于区间 [0,1),排在 shard 配置第二位的 node02,占比 2/6,所以区间为 [1,3),至于最后的 node03 就是 [3,6).所以如果 rand() 产生的数字除以 6 取余落在哪个区间,数据就会分发到哪个 shard,通过权重配置,可以实现数据按照想要的比重分配.

3 分片的作用

3.1 分片规则

在分布式模式下,ClickHouse 会将数据分为多个分片,并且分布到不同节点上。不同的分片策略在应对不同的 SQL Pattern 时,各有优势。ClickHouse 提供了丰富的- - - sharding 策略,让业务可以根据实际需求选用。

3.2 类比

以 MySQL 的分库分表场景为例:

这个 MySQL 的例子,与 CK 的分区 + 分片 + 副本在逻辑上基本一致。分区理解为数据写入哪个表,分片可以理解为数据写入哪个库,副本则是从节点的拷贝。

3.3 分片、分区与副本

Clickhouse 分片是集群模式下的概念,可以类比 MySQL 的 Sharding 逻辑,副本是为了解决 Sharing 方案下的高可用场景所存在的。

下图描述了一张 Merge 表的各类键的关系,也能反映出一条记录的写入过程。

4 数据合并限制

理清了分区与分片的概念,也就明白 CK 的数据合并,为什么要限制相同分区、相同分片,因为它们影响数据的存储位置,merge 操作只能针对相同物理位置(分区目录)的数据进行操作,而分片会影响数据存储在哪个节点上。

一句话,使用 CK 的 ReplacingMergeTree 引擎的去重特性,期望去重的数据,必须满足拥有 相同排序键、同一分区、同一分片。

接下来针对这一要求,在数据上进行验证。

5 数据验证

5.1 场景设置

这里是要验证上面的结论,“期望去重的数据,必须满足在相同排序键、同一分区、同一分片”;

首先拥有相同排序键才会在 merge 操作时进行判断为重复,因此保证测试数据的排序键相同;剩余待测试场景则是分区与分片。

由此进行场景设置:

5.2 第一天测试

场景 1: 相同记录,能够写入同一分区、同一分片

一次执行 3 条插入,插入本地表

[main_id=101,sku_id=SKU0002;barnd_code=BC01,BC02,BC03]

select * from test_ps.sku_detail_same_partition_same_shard_all;

分三次执行,插入本地表

[main_id=101,sku_id=SKU0001;barnd_code=BC01,BC02,BC03]

select * from test_ps.sku_detail_same_partition_same_shard_all;

分三次执行,插入分布式表

[main_id=101,sku_id=SKU0001;barnd_code=BC001,BC002,BC003]

select * from test_ps.sku_detail_same_partition_same_shard_all;

select * from test_ps.sku_detail_same_partition_same_shard_all final;

结论 1

1.采用分布式表插入数据,保证分片键、分区键的值相同,才能保证 merge 去重成功

排除本地表插入场景

2.采用本地表插入数据,在分片键、分区键相同的情况下,无法保证 merge 去重

后面直接验证插入分布式表场景。

场景 2:相同记录,能够写入同一分区,不同分片

分三次执行,插入分布式表

[main_id=103,sku_id=SKU0003;barnd_code=BC301,BC302,BC303]

检查数据插入状态

select * from test_ps.sku_detail_same_partition_diff_shard_all where main_id =103 ;

检查 merge 的去重结果

select * from test_ps.sku_detail_same_partition_diff_shard_all final where main_id =103 ;

分五次执行,插入分布式表

[main_id=104,sku_id=SKU0004;barnd_code=BC401,BC402,BC403,BC404,BC405]

检查数据插入状态

select * from test_ps.sku_detail_same_partition_diff_shard_all where main_id =104 ;

检查 merge 的去重结果

select * from test_ps.sku_detail_same_partition_diff_shard_all final where main_id =104 ;

结论 2

采用分布式表插入数据,保证分区键的值相同、分片键的值随机,无法保证 merge 去重

场景 3:相同记录,能够写入不同分区,不同分片

分五次执行,插入分布式表

[main_id=105,sku_id=SKU0005;barnd_code=BC501,BC502,BC503,BC504,BC505]

检查数据插入状态

select * from test_ps.sku_detail_diff_partition_diff_shard_all where main_id =105 ;

检查 merge 的去重结果

select * from test_ps.sku_detail_diff_partition_diff_shard_all final where main_id =105;

结论 3

采用分布式表插入数据,分区键的值与排序键不一致、分片键的值随机,无法保证 merge 去重

场景 4:相同记录,能够写入 不同分区、相同分片

分六次执行,插入分布式表

[main_id=106,sku_id=SKU0006;barnd_code=BC601,BC602,BC603,BC604,BC605,BC606]

检查数据插入状态

select * from test_ps.sku_detail_diff_partition_same_shard_all where main_id =106 ;

检查 merge 的去重结果

select * from test_ps.sku_detail_diff_partition_same_shard_all final where main_id =106;

此场景,经过第二天检索,数据并没有进行 merge,而是用 final 关键字依然能检索出去重后的结果。也就是说 final 关键字只是在内存中进行去重,由于所在分区不同,文件是没有进行 merge 合并的,也就没有去重。反观相同分区、相同分片的数据表,数据已经完成了 merge 合并,普通检索只能得到一条记录。

结论 4

采用分布式表插入数据,分区键的值与排序键不一致、分片键的值固定,无法实现 merge 去重

5.3 第二天检查

以下均采用普通查询,发现如下情况

select * from test_ps.sku_detail_same_partition_same_shard_all;

select * from test_ps.sku_detail_same_partition_diff_shard_all;

select * from test_ps.sku_detail_diff_partition_diff_shard_all;

select * from test_ps.sku_detail_diff_partition_same_shard_all;

6 总结

根据测试结果,在不同场景下的合并情况:

在 Clickhouse 的 ReplacingMergeTree 进行 merge 操作时,是根据排序键(order by)来识别是否重复、是否需要合并。而分区和分片,影响的是数据的存储位置,在哪个集群节点、在哪个文件目录。那么最终 ReplacingMergeTree 表引擎在合并时,只会在当前节点、且物理位置在同一表目录下的数据进行 merge 操作。

最后,我们在设计表时,如果期望利用到 ReplacingMergeTree 自动去重的特性,那么必须使其存储在相同分区、相同分片下; 而在设置分区键、分片键时,二者不要求必须相同,但必须稳定,稳定的含义是入参相同出参必须相同。


↙↙↙阅读原文可查看相关链接,并与作者交流