Sentry 监控 - Snuba 数据中台架构简介(Kafka+Clickhouse)

安全 应用安全 中台 Kafka
Snuba 是一种在 Clickhouse 之上提供丰富数据模型以及快速摄取消费者(直接从 Kafka 获取数据)和查询优化器的服务。

[[427651]]

本文转载自微信公众号「黑客下午茶」,作者为少。转载本文请联系黑客下午茶公众号。

 Snuba 是一种在 Clickhouse 之上提供丰富数据模型以及快速摄取消费者(直接从 Kafka 获取数据)和查询优化器的服务。

Snuba 最初的开发目的是取代 Postgres 和 Redis 的组合,以搜索和提供有关 Sentry 错误的聚合数据。从那时起,它已经演变成目前的形式,在多个数据集上支持大多数与时间序列相关的 Sentry 功能。

功能

  • 为 Clickhouse 分布式数据存储提供数据库访问层。
  • 提供一个图形逻辑数据模型,客户端可以通过 SnQL 语言查询,该语言提供类似于 SQL 的功能。
  • 在单个安装中支持多个单独的数据集。
  • 提供基于规则的查询优化器。
  • 提供一个迁移系统,将 DDL 更改应用于单节点和分布式环境中的 Clickhouse。
  • 直接从 Kafka 摄取数据
  • 支持时间点查询和流式查询。

Sentry 中的一些用例:

  • events 数据集为 Issue Page 等功能提供支持。此处的搜索功能由 Snuba 以及所有聚合(aggregation)函数提供支持。
  • discover 数据集为所有性能监控(Performance Monitoring)相关功能提供支持。
  • sessions 数据集为发布(Releases)功能提供支持。具体来说,该数据集会摄取大量数据点并存储预先聚合的数据,以允许对大量数据进行快速查询。
  • outcomes 数据集为统计页面(Stats page)提供支持。

开始使用 Snuba

这是在 Sentry 开发环境中快速启动 Snuba 的指南。

必要条件

Snuba 假设如下:

  1. 一个 Clickhouse 服务器端点位于 CLICKHOUSE_HOST(默认 localhost)。
  2. 在 REDIS_HOST(默认 localhost)上运行的 redis 实例。在端口 6379 上。

让这些服务运行的快速方法是设置 sentry,然后使用:

  1. sentry devservices up --exclude=snuba 

请注意,Snuba 假设一切都在 UTC 时间运行。否则,您可能会遇到时区不匹配的问题。

Sentry + Snuba

在 ~/.sentry/sentry.conf.py 中添加/更改以下几行:

  1. SENTRY_SEARCH = 'sentry.search.snuba.EventsDatasetSnubaSearchBackend' 
  2. SENTRY_TSDB = 'sentry.tsdb.redissnuba.RedisSnubaTSDB' 
  3. SENTRY_EVENTSTREAM = 'sentry.eventstream.snuba.SnubaEventStream' 

运行:

  1. sentry devservices up 

访问原始 clickhouse client(类似于 psql):

  1. docker exec -it sentry_clickhouse clickhouse-client 

数据写入表 sentry_local: select count() from sentry_local;

设置

设置可以在 settings.py 中找到

  • CLUSTERS:提供集群列表以及应该在每个集群上运行的主机名(hostname)、端口(port)和存储集(storage sets)。每个集群也设置了本地与分布式(Local vs distributed)。
  • REDIS_HOST:redis 正在运行此处。

Snuba 架构概述

Snuba 是一个由 Clickhouse 支持的面向时间序列的数据存储服务,它是一个列式存储分布式数据库,非常适合 Snuba 服务的查询类型。

  • https://clickhouse.tech/

数据完全存储在 Clickhouse 表和物化(materialized)视图中,它通过输入流(目前只有 Kafka topic)摄取,并且可以通过时间点查询或流式查询(subscriptions)进行查询。

存储

之所以选择 Clickhouse 作为后备存储,是因为它在 Snuba 需要的实时性能、分布式和复制性质、存储引擎方面的灵活性和一致性保证之间提供了良好的平衡。

Snuba 数据存储在 Clickhouse 表和 Clickhouse 物化视图(materialized views)中。根据表的目标使用多个 Clickhouse 存储引擎。

  • https://clickhouse.tech/docs/en/engines/table-engines/

Snuba 数据组织在多个数据集中,这些数据集表示数据模型的独立分区。更多细节见 Snuba 数据模型部分。

摄取

Snuba 不提供用于插入行的 api 端点(除非在调试模式下运行)。数据从多个输入流加载,由一系列消费者处理并写入 Clickhouse 表。

一个 consumer 消费一个或多个 topic 并写入一个或多个表。到目前为止,还没有多个消费者写入表。这允许下面讨论的一些一致性保证。

数据摄取(Data ingestion)在批处理中最有效(对于 Kafka 但尤其是对于 Clickhouse)。我们的 consumer 支持批处理并保证从 Kafka 获取的一批事件至少传递给 Clickhouse 一次。通过正确选择 Clickhouse 表引擎对行进行重复数据删除,如果我们接受最终一致性,我们可以实现恰好一次语义。

查询

最简单的查询系统是时间点。查询以 SnQL 语言(SnQL 查询语言)表示,并作为 HTTP post 调用发送。查询引擎处理查询(Snuba 查询处理中描述的过程)并将其转换为 ClickHouse 查询。

流式查询(通过订阅引擎完成)允许客户端以推送方式接收查询结果。在这种情况下,HTTP 端点允许客户端注册流查询。然后订阅 Consumer 消费到用于填充相关 Clickhouse 表以进行更新的 topic,通过查询引擎定期运行查询并在订阅 Kafka topic 上生成结果。

数据一致性

不同的一致性模型在 Snuba 中并存以提供不同的保证。

默认情况下,Snuba 是最终一致的。运行查询时,默认情况下,不能保证单调读取(monotonic reads),因为 Clickhouse 是多领导者(multi-leader),查询可以命中任何副本,并且不能保证副本是最新的。此外,默认情况下,不能保证 Clickhouse 会自行达到一致状态。

通过强制 Clickhouse 在执行查询之前达到一致性(FINAL keyword),并强制查询命中 consumer 写入的特定副本,可以在特定查询上实现强一致性。这本质上使用 Clickhouse,就好像它是一个单一的领导系统(single leader system),它允许顺序一致性(Sequential consistency)。

Sentry 部署中的 Snuba

本节解释了 Snuba 在展示主要数据流的 Sentry 部署中扮演的角色。如果您单独部署 Snuba,这对您没有用处。

Errors 和 Transactions 数据流

图表顶部的主要部分说明了 Events 和 Transactions 实体的摄取过程。这两个实体为 Sentry 和整个 Performance 产品中的大多数问题/错误(issue/errors)相关功能提供服务。

只有一个 Kafka topic(events)在 errors 和 transactions 之间共享,为这条管道提供信息。此 topic 包含 error 消息和 transaction 消息。

Errors consumers 使用 events topic,在 Clickhouse errors 表中写入消息。提交后,它还会生成关于 snuba-commit-log topic 的记录。

错误警报由 Errors Subscription Consumer 生成。这是同步消费者(synchronized consumer),它同时消费主 events topic 和 snuba-commit-log topic,因此它可以与主 consumer 同步进行。

synchronized consumer 然后通过查询 Clickhouse 生成警报,并在 result topic 上生成结果。

transactions 存在于一个相同但独立的管道。

Errors 管道还有一个额外的步骤:写入 replacements topic。Sentry 在 events topic 上产生 Errors mutations(合并/取消合并/再处理/等等)。然后,Errors Consumer 将它们转发到 replacements topic,并由 Replacement Consumer 执行。

events topic 必须按 Sentry project id 在语义上进行分区,以允许按顺序处理项目中的事件。目前为止,这是 alerts 和 replacements 的要求。

Sessions 与 Outcomes

Sessions 和 Outcomes 以非常相似和更简单的方式工作。特别是 Sessions 增强 Release Health 功能,而 Outcomes 主要向 Sentry 统计页面提供数据。

两个管道都有自己的 Kafka topic,Kafka consumer,它们在 Clickhouse 中写自己的表。

变更数据捕获管道

这条管道仍在建设中。它使用 cdc topic 并填充 Clickhouse 中的两个独立表。

 

责任编辑:武晓燕 来源: 黑客下午茶
相关推荐

2021-10-09 23:33:55

监控

2021-10-11 19:36:08

监控Sentry架构

2021-11-27 23:54:44

监控Snuba数据

2021-11-26 18:53:53

监控数据中台

2021-12-01 23:59:45

监控Snuba数据中台

2023-02-13 11:43:15

云原生中间件负载均衡

2023-04-21 13:15:01

2022-03-15 21:38:29

sentry微服务监控

2010-04-11 17:18:14

Windows Pho

2021-09-14 23:50:17

Sentry后端监控

2021-09-27 19:41:31

监控Sentry Alerts

2021-09-26 16:20:04

Sentry Dashboards 数据可视化

2023-10-16 18:51:04

ClickHouse大数据

2019-12-12 10:22:16

大数据平台大数据安全大数据

2021-04-22 08:45:38

架构交易中台

2021-09-13 05:00:09

监控Trends 性能

2021-09-11 21:02:24

监控Sentry Web性能

2021-09-16 23:33:41

大数据Sentry监控

2021-11-17 18:38:32

avaScriptSDK调试

2021-09-29 07:47:49

Sentry 监控Environment事件数据
点赞
收藏

51CTO技术栈公众号