Skip to content

Commit e8310cb

Browse files
committed
new doc
1 parent 1fc8a41 commit e8310cb

File tree

8 files changed

+554
-10
lines changed

8 files changed

+554
-10
lines changed

201706/20170614_02.md

Lines changed: 16 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -83,7 +83,15 @@ postgres=# explain SELECT min(xxx) from tbl where val=11546671;
8383
```
8484

8585
### 诊断
86-
1、rows=3809 是如何评估得到的?
86+
1、15860545.10是如何评估得到的?
87+
88+
index scan的成本取决于索引的BLOCK的数量乘以random_page_cost再加上记录数乘以cpu_index_tuple_cost,乘以输入参数的估值比例。
89+
90+
```
91+
(pg_class.relpages*random_page_cost + pg_class.reltuples*cpu_index_tuple_cost) * (3809/(9.18266e+07))
92+
```
93+
94+
2、rows=3809 是如何评估得到的?
8795

8896
首先val=11546671,这个值不在val的高频词(most_common_vals)里面,因此多少行可能出现一次呢?
8997

@@ -92,7 +100,7 @@ postgres=# explain SELECT min(xxx) from tbl where val=11546671;
92100
= 3809.8688182440527126
93101
```
94102

95-
2、cost=4164.53..4164.54是如何评估出来的?
103+
3、cost=4164.53..4164.54是如何评估出来的?
96104

97105
由于每3809行就可能有一个val=11546671的记录,因此index scan的总成本除以它就是最终min(xxx)的成本
98106

@@ -102,16 +110,18 @@ postgres=# explain SELECT min(xxx) from tbl where val=11546671;
102110
4163.0160660781062716
103111
```
104112

105-
3、为什么会选择xxx列的索引?
113+
4、为什么会选择xxx列的索引?
106114

107115
因为是基于成本的优化,所以最终会选择成本最低的。
108116

109-
4、为什么更换val条件性能会抖动?
117+
假如使用val列的索引,并从heap table get tuples,因此需要扫描整个val列的索引,才能得到min(xxx)。还不如直接全表扫描。
118+
119+
5、为什么更换val条件性能会抖动?
110120

111-
因为前面提到的3809只是一个概率,不一定扫描3809行就能遇到一条val=???的值,因此val=???分布在xxx索引的末端,性能就会非常非常差。
121+
因为前面提到的3809只是一个概率,不一定扫描3809行就能遇到一条 val=??? 的值,因此val=???分布在xxx索引的末端,性能就会非常非常差。
112122

113123
### 优化
114-
这个CASE只要使用复合索引就可以解决
124+
这个CASE使用复合索引就可以解决
115125

116126
```
117127
create index idx_tbl_val_xxx on tbl using btree (val,xxx);

201706/20170615_01.md

Lines changed: 300 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,300 @@
1+
## 列存优化(shard,大小块,归整,块级索引,bitmap scan) - (大量数据实时读写)任意列搜索
2+
3+
### 作者
4+
digoal
5+
6+
### 日期
7+
2017-06-14
8+
9+
### 标签
10+
PostgreSQL , 列存储 , shard , 切片 , 大块 , 小块 , sort , 块级索引 , bitmap scan , 索引延迟 , 归整
11+
12+
----
13+
14+
## 背景
15+
数据分析系统,决策系统的数据量通常非常庞大,属性(列)非常多,可能涉及到任意列的组合条件查询,筛选结果、聚合结果、多维分析等。
16+
17+
这种场景如何优化能满足实时的响应需求呢?
18+
19+
PostgreSQL中有一些技术,可以满足此类场景。
20+
21+
1\. 内置bitmapAnd bitmapOr,使用任意字段的索引搜索时,可以快速跳过不满足条件的块,快速的得到组合结果。
22+
23+
实测10亿数据,31个字段任意搜索,约几百毫秒的响应时间。
24+
25+
案例如下:
26+
27+
[《多字段,任意组合条件查询(无需建模) - 毫秒级实时圈人 最佳实践》](../201706/20170607_02.md)
28+
29+
还有这种方法,要求每个字段都建立索引,对数据写入会有性能影响(特别是与堆存储线性相关性很差的字段,索引分裂会比较严重,导致IO巨大)。
30+
31+
对于数据量非常庞大的场景,建议对表进行分区,可以建立多级分区。
32+
33+
例如UID为一级HASH分区,时间戳为二级范围分区。这样可以控制每个表的大小,通过时间分区我们可以将历史数据静态化,不影响新录入数据的索引。从而提升整体性能。
34+
35+
2\. PostgreSQL支持多种索引接口,针对不同的数据类型,数据的存储风格。在前面的案例中也有介绍。
36+
37+
因此并不是btree一路用到底,对于不同的类型有不同的搜索需求,比如范围类型,数组类型,全文检索类型,通常会根据包含、相交来进行查询。而对于空间数据,通常会根据相交,距离等进行查询。对于一维类型通常会根据=,或者范围进行查询。
38+
39+
这些数据类型都能找到合适的索引来加速扫描,结合bitmapAnd, bitmapOr,实现实时的任意字段搜索。
40+
41+
3\. bitmap 索引(greenplum)
42+
43+
对于选择性较差的列,例如1亿记录,只有1000个唯一值,这种情况下,使用bitmap index就可以达到非常好的效果。
44+
45+
案例如下
46+
47+
[《Greenplum 最佳实践 - 什么时候选择bitmap索引》](../201705/20170512_01.md)
48+
49+
[《PostgreSQL (varbit, roaring bitmap) VS pilosa(bitmap库)》](../201706/20170612_01.md)
50+
51+
4\. 列存储, cstore(orc)格式
52+
53+
https://orc.apache.org/
54+
55+
https://github.com/citusdata/cstore_fdw
56+
57+
如果单机已经做了很多优化,例如使用分区表,但是由于实时写入的数据量依旧很庞大,数据录入由于索引过多遇到瓶颈了,还有什么优化手段呢?
58+
59+
## 一、海量数据 - 实时任意字段查询,实时写入 矛盾优化
60+
要做到实时的海量写入,又要实时的查询,确实是一个比较矛盾的问题。
61+
62+
因为要实时写入,就要尽量少的索引,而要实时查询,就要索引的支持。
63+
64+
那么到底怎么解决这个矛盾问题呢?
65+
66+
1、索引延迟合并
67+
68+
在PostgreSQL中有一个GIN索引,这个索引是针对多值类型的索引,例如数组。
69+
70+
当用户在写入一条记录时,(一个数组往往涉及多个元素),索引的条目可能会设置到多个,因此每写一条记录,IO是巨大的,因此GIN有一个加速数据写入、更新、删除的特性,fastupdate。
71+
72+
这个特性也比较好理解,实际上就是延迟合并,比如累计1000条记录后,合并一次到索引的条目中。从而大幅提升写入性能。
73+
74+
那么我们也可以使用类似的技术来优化以上场景,只是需要对所有的索引接口都做类似的fastupdate功能。
75+
76+
2、lambda批量操作
77+
78+
我们可以将数据分为两个部分,一个部分是实时写入部分,另一部分是数据的合并部分。
79+
80+
数据实时的写入部分(不需要索引),实时写入后,再批量对其建立索引。
81+
82+
也就是先写入,到达分区边界后,写入新的分区,而前一个分区则开始建立索引。PG支持对一张表并行的创建多个索引。
83+
84+
例如
85+
86+
```
87+
每个小时一个分区。
88+
89+
12:00-13:00,数据写入12:00到13:00的分区,在12:00时,可以对11:00-12:00的分区建立索引。
90+
91+
因此实时的数据都是写入没有索引的表,写入吞吐可以做到500万行/s左右。
92+
93+
批量创建索引的速度是非常快的,通常可以跟上节奏。
94+
```
95+
96+
另外有两个类似的场景,有兴趣的话也可以参考一下,与本例的用法不一样。
97+
98+
[《块级(ctid)扫描在IoT(物联网)极限写和消费读并存场景的应用》](../201706/20170607_01.md)
99+
100+
[《海量数据 "写入、共享、存储、计算" 最佳实践》](../201705/20170509_02.md)
101+
102+
3、分布式
103+
104+
当单机的容量、写入性能、查询性能可能成为瓶颈时,可以创建多个实例。
105+
106+
多个实例有许多方法可以融合起来。
107+
108+
例如
109+
110+
3\.1 postgres_fdw + inherit
111+
112+
https://www.postgresql.org/docs/9.6/static/tutorial-inheritance.html
113+
114+
https://www.postgresql.org/docs/10/static/postgres-fdw.html
115+
116+
[《PostgreSQL 9.6 单元化,sharding (based on postgres_fdw) - 内核层支持前传》](../201610/20161004_01.md)
117+
118+
[《PostgreSQL 9.6 sharding + 单元化 (based on postgres_fdw) 最佳实践 - 通用水平分库场景设计与实践》](../201610/20161005_01.md)
119+
120+
3\.2 postgres_fdw + pg_pathman
121+
122+
https://github.com/postgrespro/pg_pathman
123+
124+
https://www.postgresql.org/docs/10/static/postgres-fdw.html
125+
126+
[《PostgreSQL 9.5+ 高效分区表实现 - pg_pathman》](../201610/20161024_01.md)
127+
128+
[《PostgreSQL 9.6 sharding based on FDW & pg_pathman》](../201610/20161027_01.md)
129+
130+
3\.3 plproxy
131+
132+
https://plproxy.github.io/
133+
134+
https://github.com/plproxy/plproxy
135+
136+
[《PostgreSQL 最佳实践 - 水平分库(基于plproxy)》](../201608/20160824_02.md)
137+
138+
[《阿里云ApsaraDB RDS for PostgreSQL 最佳实践 - 2 教你RDS PG的水平分库》](../201512/20151220_02.md)
139+
140+
[《阿里云ApsaraDB RDS for PostgreSQL 最佳实践 - 3 水平分库 vs 单机 性能》](../201512/20151220_03.md)
141+
142+
[《阿里云ApsaraDB RDS for PostgreSQL 最佳实践 - 4 水平分库 之 节点扩展》](../201512/20151220_04.md)
143+
144+
3\.4 citusdata extension
145+
146+
https://github.com/citusdata/citus
147+
148+
4、干掉索引,列存储优化
149+
150+
列存储除了可以降低单列统计,少量列统计的IO扫描成本,同时还可以提高压缩比。
151+
152+
列存储的方法是本文的重点,实际上可以不需要索引,使用列存,对列存的存储进行优化和规则,使得访问数据就如有索引一样高效。
153+
154+
列存的优化手段是编排,可以参考如下文章。
155+
156+
[《从一维编排到多维编排,从平面存储到3D存储 - 数据存储优化之路》](../201706/20170614_01.md)
157+
158+
## 二、列存储编排优化
159+
单列编排比较好实现,多列编排则需要建立列和列之间的映射关系。例如使用一个中间VALUE(PK)进行关联,这样会增加一个成本。
160+
161+
例如
162+
163+
```
164+
PK(没有的话使用隐含PK)
165+
pk_val1
166+
pk_val2
167+
pk_val3
168+
169+
column a
170+
a_val1, pk?
171+
a_val2, pk?
172+
a_val3, pk?
173+
174+
column b
175+
b_val1, pk?
176+
b_val2, pk?
177+
b_val3, pk?
178+
179+
column c
180+
c_val1, pk?
181+
c_val2, pk?
182+
c_val3, pk?
183+
```
184+
185+
bitmapAnd, bitmapOr结合
186+
187+
```
188+
where column a ?
189+
and column b ?
190+
or column c ?
191+
```
192+
193+
bitmap扫描方法如下,只是替换成PK。
194+
195+
```
196+
Heap, one square = one page:
197+
+---------------------------------------------+
198+
|c____u_____X___u___X_________u___cXcc______u_|
199+
+---------------------------------------------+
200+
Rows marked c match customers pkey condition.
201+
Rows marked u match username condition.
202+
Rows marked X match both conditions.
203+
204+
205+
Bitmap scan from customers_pkey:
206+
+---------------------------------------------+
207+
|100000000001000000010000000000000111100000000| bitmap 1
208+
+---------------------------------------------+
209+
One bit per heap page, in the same order as the heap
210+
Bits 1 when condition matches, 0 if not
211+
212+
Bitmap scan from ix_cust_username:
213+
+---------------------------------------------+
214+
|000001000001000100010000000001000010000000010| bitmap 2
215+
+---------------------------------------------+
216+
Once the bitmaps are created a bitwise AND is performed on them:
217+
218+
+---------------------------------------------+
219+
|100000000001000000010000000000000111100000000| bitmap 1
220+
|000001000001000100010000000001000010000000010| bitmap 2
221+
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
222+
|000000000001000000010000000000000010000000000| Combined bitmap
223+
+-----------+-------+--------------+----------+
224+
| | |
225+
v v v
226+
Used to scan the heap only for matching pages:
227+
+---------------------------------------------+
228+
|___________X_______X______________X__________|
229+
+---------------------------------------------+
230+
The bitmap heap scan then seeks to the start of each page and reads the page:
231+
232+
+---------------------------------------------+
233+
|___________X_______X______________X__________|
234+
+---------------------------------------------+
235+
seek------->^seek-->^seek--------->^
236+
| | |
237+
------------------------
238+
only these pages read
239+
and each read page is then re-checked against the condition since there can be >1 row per page and not all necessarily match the condition.
240+
```
241+
242+
编排的工作量和索引类似,也会涉及到块的调整,因此也会导致写延时,为了降低写延迟,同样需要类似的优化,延迟编排、分片等。
243+
244+
### 延迟编排
245+
为了达到最大的写入吞吐,写入时数据为无序状态。
246+
247+
### 分片优化
248+
对写入的数据,按每列的存储分片进行整理,例如每个存储分片32MB。
249+
250+
整理的目标是使得这32MB的分片的字段按顺序存储(对于不同的类型,整理规则可调整,例如按顺序,按GEOHASH值顺序,按聚集等)。
251+
252+
整理好之后,生成每个分片内的元信息,例如每8K一个单位,保存这个单位的数据边界(最大最小值),数据的平均值,COUNT,方差等。
253+
254+
在搜索数据时,由于每个分片存储了每8K的边界信息,所以根据列条件,可以快速的过滤不满足条件的8K单位(不需要扫描它们)。从而达到和索引一样的效果。
255+
256+
(分片元信息类似BRIN索引:[《PostgreSQL 聚集存储 与 BRIN索引 - 高并发行为、轨迹类大吞吐数据查询场景解说》](../201702/20170219_01.md) )。
257+
258+
### 分片合并归整
259+
直到前面的优化手段,只是做到了分片内的数据归整,分片和分片直接,是有可能存在数据的交集的。
260+
261+
例如:
262+
263+
第一个分片包含cola : 1-1000的数据,第二个分片可能包含cola : 2-2000的数据,这两个分片是有交集的,如果搜索的数据是落在交集中的 ,那么这两个分片都需要扫描。
264+
265+
分片合并归整的目的就是要尽量的减少分片之间的数据边界模糊问题,让分片的边界更加的清晰。
266+
267+
例如对于分区表,有32GB数据,每个分片32MB,那么当数据写完后,可以对整个分区做归整,使得每个分片的边界清晰。
268+
269+
![pic](20170615_01_pic_001.jpg)
270+
271+
这个操作类似于PostgreSQL的cluster功能。
272+
273+
## 三、行列混合编排
274+
列存储非常适合对列进行统计分析,返回少量聚合结果的业务场景。
275+
276+
但是列存储也可能带来另一个负面影响,例如用户可能要返回多列,或者整行数据。由于列存储每列的存储都是独立的,当需要返回一整行记录时,需要扫描更多的数据块。当返回的记录数多时,可能会放大这个负面影响。
277+
278+
行列混合存储就出现了,行列混合存储的思想类似与shard的思想。(在分布式数据库中,建表时,将表按规则切分成若干的shard,然后再将shard存储到不同的数据节点(shard数往往大于节点数),当扩容时,move shard即可,而不需要改变数据在shard层面的分布规则。 例如某个分布式数据库由4个数据节点组成,建表时,可以分成4096个shard,那么在扩容时,移动shard就可以完成扩容。而不需要改变数据的路由规则,它们只需要按原来的方法路由到对应的shard即可。)
279+
280+
在行列混合存储的应用中,也有类似shard的思想,例如将记录数切片,每一批数据的列存储放到一个单独的数据文件中。
281+
282+
这么做的好处是,当用户需要访问这批数据时,访问的是连续的数据块,而不是离散的数据库,从而提升返回大量数据的性能。(当然,这里指的是返回相邻的大量数据)。
283+
284+
![pic](20170615_01_pic_002.jpg)
285+
286+
![pic](20170615_01_pic_003.jpg)
287+
288+
## 小结
289+
大量数据实时读写,实时任意列搜索的场景,优化的手段非常多。
290+
291+
本文详解介绍了列存储的优化方法。
292+
293+
包括分片延迟编排,分片归整,行列混合等。
294+
295+
分片延迟编排,在保证数据高速写入的前提下,可以实现数据在分片内的顺序,8K单位的元数据。减少数据搜索时的扫描成本。
296+
297+
分片归整,指更大范围的分片编排,进一步提升整体的边界清晰度,从而再一次减少数据搜索时的扫描成本。
298+
299+
行列混合存储,当需要返回大量的连续整行记录时,可以大幅降低扫描的数据块的离散度。
300+

201706/20170615_01_pic_001.jpg

97.4 KB
Loading

201706/20170615_01_pic_002.jpg

145 KB
Loading

201706/20170615_01_pic_003.jpg

70.9 KB
Loading

201706/readme.md

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,6 @@
11
### 文章列表
22
----
3+
##### 20170615_01.md [《列存优化(shard,大小块,归整,块级索引,bitmap scan) - (大量数据实时读写)任意列搜索》](20170615_01.md)
34
##### 20170614_02.md [《优化器里的概率学 - 性能抖动原理分析》](20170614_02.md)
45
##### 20170614_01.md [《从一维编排到多维编排,从平面存储到3D存储 - 数据存储优化之路》](20170614_01.md)
56
##### 20170612_05.md [《索引扫描优化之 - GIN数据重组优化(按元素聚合) 想象在玩多阶魔方》](20170612_05.md)

README.md

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -28,6 +28,7 @@ digoal's|PostgreSQL|文章|归类
2828

2929
### 未归类文档如下
3030
----
31+
##### 201706/20170615_01.md [《列存优化(shard,大小块,归整,块级索引,bitmap scan) - (大量数据实时读写)任意列搜索》](201706/20170615_01.md)
3132
##### 201706/20170614_02.md [《优化器里的概率学 - 性能抖动原理分析》](201706/20170614_02.md)
3233
##### 201706/20170614_01.md [《从一维编排到多维编排,从平面存储到3D存储 - 数据存储优化之路》](201706/20170614_01.md)
3334
##### 201706/20170612_05.md [《索引扫描优化之 - GIN数据重组优化(按元素聚合) 想象在玩多阶魔方》](201706/20170612_05.md)

0 commit comments

Comments
 (0)