云数据仓库的未来趋势:计算存储分离

新闻 其他数据库 开发工具 数据仓库
随着云时代的到来,数据库也开始拥抱云数据库时代,各类数据库系统(OLTP、OLAP、NoSQL等)在各内外云平台(AWS、Azure、阿里云)百花齐放

 [[401883]]

一、背景

随着云时代的到来,数据库也开始拥抱云数据库时代,各类数据库系统(OLTP、OLAP、NoSQL等)在各内外云平台(AWS、Azure、阿里云)百花齐放,有开源的MySQL、PostgreSQL、MongoDB,传统数据库厂商的SQLServer、Oracle,云厂商自研的Aurora、Redshift、PolarDB、AnalyticDB、AzureSQL等。有些数据库还处于Cloud Hosting阶段,仅仅是将原有架构迁移到云主机上,利用了云的资源。有些数据库则已经进入了Cloud Native阶段,基于云平台IAAS层的基础设施,构建弹性、serverless、数据共享等能力。

本文主要介绍阿里云云原生数据仓库AnalyticDB MySQL版(以下简称AnalyticDB)过去几年在弹性方向上的探索和成果。

二、为什么要计算存储分离

MPP(Massive Parallel Processing)架构为OLAP类数据库最普遍采用的技术架构。在MPP架构下,计算存储共享一个节点,每个节点有自己独立的CPU、内存、磁盘资源,互相不共享。数据经过一定的分区规则(hash、random、range),打散到不同的节点上。处理查询时,每个节点并行处理各自的数据,互相之间没有资源争抢,具备比较好的并行执行能力。

这种将存储资源、计算资源紧密耦合的架构,不太容易满足云时代不同场景下的不同workload需求。例如数据导入类的任务,往往需要消耗比较大的IO、网络带宽,而CPU资源消耗不大。而复杂查询类任务往往对CPU的资源消耗非常大。因此面对这两种不同的workload,在选择资源规格时,需要结合不同的workload分别做不同的类型选择,也很难用一种资源规格同时满足这两种类型。因为业务不停在发展,workload也不停在变化,比较难提前做好规划。

当业务发展,对CPU资源提出了更高的需求,我们扩容集群扩充CPU资源时,也会引发数据的reshuffle,这会消耗比较大的网络带宽、以及CPU资源。即便是基于云平台构建的数据仓库,在查询低峰期时,也无法通过释放部分计算资源降低使用成本,因为这同样会引发数据的reshuffle。这种耦合的架构,限制了数据仓库的弹性能力。

而通过分离存储资源、计算资源,可以独立规划存储、计算的资源规格和容量。这样计算资源的扩容、缩容、释放,均可以比较快完成,并且不会带来额外的数据搬迁的代价。存储、计算也可以更好的结合各自的特征,选择更适合自己的资源规格和设计。

三、业界趋势

1.Redshift

作为AWS上最热门的数据仓库产品,Redshift采用的是MPP架构,它也一直往弹性方向演进。Redshift于2018年11月推出的Elastic resize功能,相比于classic resize,其扩缩容时间大幅下降。在2019年11月进一步推出了elastic resize scheduling让用户配置扩缩容计划来达到自动弹性。此外,Redshift在2019年12月正式推出了RA3形态,它采用了计算存储分离的架构,数据存储在S3上,计算节点使用高性能SSD作为本地缓存,加速对数据的访问。在这个架构下,计算存储可以独立弹性,具备较好的弹性能力。

2.Snowflake

Snowflake从诞生的第一天起就采用计算存储分离架构,作为跨云平台的云数据仓库,它的存储层由对象存储构成(可以是AWS S3、Azure Blob等),计算层由virtual warehouse(简称VW)构成,每个用户可以创建一个或多个对应的VW,每个VW是由若干个EC2(AWS上的虚拟主机)组成的集群。这样可以灵活地根据不同workload,为不同用户创建不同规格的VW,且用户之间具备非常好的隔离性。基于VW的灵活性,Snowflake支持了VW auto suspend、resume以及auto scale能力,通过计算存储分离带来的弹性能力,给用户带来“pay-as-you-go”的使用体验。

四、AnalyticDB弹性模式

与Redshift类似,AnalyticDB最初也是基于传统的MPP架构来构建的。2020年5月,AnalyticDB推出了计算存储分离架构的弹性模式。AnalyticDB弹性模式分为接入层、计算层、存储层,其中接入层兼容了MySQL协议,包含了权限控制、优化器、元数据、查询调度等模块,负责数据实时写入、查询。

1.存储层

在弹性架构下,存储层负责数据的实时写入、索引构建、数据扫描、下推的谓词计算(过滤、列裁剪、分区裁剪等),不再负责查询的计算任务。数据在存储层依然采用MPP的方式组织,数据以hash、random的方式在分区(shard)间均匀打散,以分区(shard)方式可以非常方便地实现数据的实时写入强一致,而在数据扫描的时候可以实现shard级的并发读以保证并发。同时存储层提供一体化的冷热分层存储能力,数据可以热表的方式存在本地SSD、冷表的方式存储在底层DFS,亦或是以冷热混合表的形式存放,实现冷热数据的自动迁移, 《数据仓库分层存储技术揭秘》 一文中有详细介绍。

2.计算层

在弹性模式下,计算层由若干个计算节点组成,计算节点负责接收接入层下发的物理执行计划,并根据物理执行计划转换成对应的算子。计算层采用了vectorized的执行模型,算子之间数据以pipeline的方式进行交互,若干行(一般为几千行)数据组成一个batch,batch内部数据以列存的形式组织。此外,计算层的JIT模块会根据查询计划,动态生成代码,加速计算,包括expression计算、排序、类型比较等。JIT模块还以计划的pattern为key,缓存动态生成的代码,以此减少交互式查询下动态生成代码的代价。

3.执行计划

计算存储分离架构下,计算层新增了Resharding算子,负责从存储层加载数据。数据以batch、列存的方式在存储层与计算层之间传递,单次请求,会传输多个batch的数据,一般不大于32MB。由于存储层依旧保留了MPP数据预分区的方式,优化器在生成执行计划的时候会根据这个分布特征,在join、agg运算时,减少不必要的数据repartition。此外,优化器也会判断查询中的filter是否可利用存储层索引,尽量把可被存储层识别的filter下推至存储层利用索引加速过滤,减少与计算层之间的数据传输。而不可被下推的filter依然保留在计算层进行过滤。

4.分区动态重分布

Resharding算子与Scan算子之间,分区(shard)遵循以下原则进行重分布:

  • 来自同一个存储节点的多个分区,尽量打散到不同的计算节点上。

  • 同一个查询内,不同表的相同分区,会被映射到相同的计算节点上。

  • 同一个分区,在不同查询之间,随机分配到不同的计算节点。

与Snowflake、Redshift不同,计算节点与分区之间没有固定的映射关系,因为计算节点没有本地的cache,数据访问的加速完全依赖于存储层的SDD、内存cache。这种动态重分布的方式,可以大大缓解分区不均匀、分区内数据倾斜等问题,不会造成固定计算节点的热点。

5.数据加载优化

相比较于原有架构,计算存储分离多了一次远程的数据访问,这对查询的延迟、吞吐会有比较大的影响。我们做了如下几个方面的优化:

  • 合并网络连接。如图三所示,通过合并连接,减少小数据量查询的网络交互次数,降低查询延迟。

  • 数据压缩。batch内基于列存格式进行压缩,减少网络带宽的消耗,有效提升Resharding算子加载吞吐。

  • 异步读取。网络模块异步加载,将数据放入buffer中,Resharding算子从buffer中获取数据,让CPU、网络IO充分并行。

6.性能测试

本节将探究计算存储分离架构对AnalyticDB大数据量分析场景的查询吞吐影响。

测试环境

  • 实例1:不分离模式,4组存储节点,存储节点负责数据扫描、查询计算。

  • 实例2:弹性模式,4组存储节点 + 6个计算节点。存储节点负责数据扫描,计算节点负责查询计算。两个实例分别导入tpch 1TB数据作为测试数据集。

存储节点 计算节点
不分离模式 4 * 3 * 8core
弹性模式 4 * 3 * 8core 6 * 16core

测试场景

我们选取TPCH Q1作为测试SQL,Q1为单表聚合查询,具备非常高的收敛度,存储层与计算层之间传输的数据量约为260GB。我们以单并发顺序执行的方式,执行TPCH Q1,取查询的平均执行时间。

  1. select 
  2.         l_returnflag, 
  3.         l_linestatus, 
  4.         sum(l_quantity) as sum_qty, 
  5.         sum(l_extendedprice) as sum_base_price, 
  6.         sum(l_extendedprice * (1 - l_discount)) as sum_disc_price, 
  7.         sum(l_extendedprice * (1 - l_discount) * (1 + l_tax)) as sum_charge, 
  8.         avg(l_quantity) as avg_qty, 
  9.         avg(l_extendedprice) as avg_price, 
  10.         avg(l_discount) as avg_disc, 
  11.         count(*) as count_order 
  12. from 
  13.         lineitem 
  14. where 
  15.         l_shipdate <= date '1998-12-01' - interval '120' day 
  16. group by 
  17.         l_returnflag, 
  18.         l_linestatus 
  19. order by 
  20.         l_returnflag, 
  21.         l_linestatus; 

测试数据

TPCH Q1 存储节点CPU消耗 计算节点CPU消耗
不分离模式 83s 98%
弹性模式 81s 19.5% 97%

测试结论

从上面的测试数据可以看到,TPCH Q1在弹性模式的执行时间略好。粗看这个结果比较惊讶,计算存储分离后,性能更好了。我们可以仔细分析下,弹性模式与不分离模式具有相同的存储节点数,确保分离模式存储节点不会成为瓶颈。从执行时的资源消耗来看,分离模式的总资源消耗(19.5% + 97%)是不分离模式(98%)的1.19倍,这多消耗的CPU来自于网络传输、序列化、反序列化等。对于计算层来说,只要存储层能够提供足够的数据吞吐,确保计算层的CPU能够打满,那么计算存储分离不会降低查询的处理吞吐,当然相比于不分离模式,会多消耗资源。

五、总结

在AnalyticDB弹性模式的基础之上,未来我们会进一步去深耕我们的弹性能力,包括计算资源池化、按需弹性能力、存储层基于共享存储的快速扩缩容能力。通过这些弹性能力,更好满足客户对于云数据仓库的诉求,也进一步降低客户的使用成本。

 

责任编辑:张燕妮 来源: 阿里技术
相关推荐

2021-06-03 14:34:15

数据仓库计算存储分离

2022-07-28 13:47:30

云计算数据仓库

2021-01-21 11:44:20

云计算数据仓库云数据仓库

2019-09-26 10:56:04

云计算数据中心公共云

2021-09-01 10:03:44

数据仓库云数据仓库数据库

2009-01-18 15:48:31

数据仓库数据存储OLTP

2017-11-24 13:51:40

数据仓库数据库数据分析

2018-07-24 09:28:18

存储数据仓库

2017-11-24 17:20:37

数据库数据仓库读写分离

2011-07-20 09:59:07

云计算CA Technolo数据保护

2022-06-24 09:38:43

数据库大数据

2018-03-20 09:36:57

数据仓库数据存储知识

2020-02-17 11:37:54

大数据数据仓库技术

2024-03-21 08:00:00

GenAI数据治理数据仓库

2013-09-17 15:46:47

惠普开放源码云计算

2024-06-18 10:08:12

2013-10-25 09:14:30

Teradata数据仓库服务

2018-03-15 08:50:46

Hive-数据存储

2023-09-07 13:34:00

云原生数据仓库

2011-07-20 14:05:35

数据仓库BI
点赞
收藏

51CTO技术栈公众号