什么?你告诉我 Kafka 会丢消息?

开发 前端
许多开发人员普遍认为,Kafka 的设计本身就能保证不会丢失消息。然而,Kafka 架构和配置的细微差别会导致消息的丢失。我们需要了解它如何以及何时可能丢失消息,并防止此类情况的发生。

Kafka 会丢失信息吗?

许多开发人员普遍认为,Kafka 的设计本身就能保证不会丢失消息。然而,Kafka 架构和配置的细微差别会导致消息的丢失。我们需要了解它如何以及何时可能丢失消息,并防止此类情况的发生。

下图显示了消息在 Kafka 的生命周期中可能丢失的场景。

图片图片

01 生产者(Producer)

当我们调用 producer.send() 发送消息时,消息不会直接发送到代理。

消息发送过程涉及两个线程和一个队列:

  1. 应用程序线程
  2. 消息累加器
  3. 发送线程(I/O 线程)

我们需要为生产者配置适当的 "acks "和 "retries",以确保消息被发送到代理。

02 消息代理(Broker)

当代理集群正常运行时,它不应该丢失消息。但是,我们需要了解哪些极端情况可能会导致消息丢失:

  1. 为了提高 I/O 吞吐量,消息通常会异步刷到磁盘上,因此如果实例在刷新之前宕机,消息就会丢失。
  2. Kafka 集群中的副本需要正确配置,以保持数据的有效副本。数据同步的确定性非常重要。

03 消费者(Consumer)

Kafka 提供了不同的提交消息的方式。自动提交可能会在实际处理记录之前确认对记录的处理。当消费者在处理过程中宕机时,有些记录可能永远不会被处理。

一个好的做法是将同步提交和异步提交结合起来,在处理消息的循环中使用异步提交以提高吞吐量,在异常处理中使用同步提交以确保最后的偏移始终被提交。

下图是这个方法的伪代码:

try {
    while (true) {
    ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(1000));

    for (ConsumerRecord<String, String> record : records) {
        // process records one by one
    }

    consumer.commitAsync();
    }
} catch (Exception e){
    // exception handling 
} finally {
    try {
        consumer.commitSync();
    } finally {
        consumer.close();
    }      
}


责任编辑:武晓燕 来源: ByteByteGo
相关推荐

2018-01-10 15:15:47

2018-01-03 08:31:43

前端开发图标

2018-03-26 09:05:18

CTO

2021-03-08 10:19:59

MQ消息磁盘

2017-07-17 12:17:38

2013-11-11 11:10:03

WE大会马化腾

2009-06-12 13:59:04

2024-09-03 09:20:45

2022-09-05 08:01:20

JWTWeb安全

2020-11-20 16:13:01

Android手机上网

2021-05-22 06:56:18

OpenWrt 路由器刷机

2022-09-12 18:29:49

kafka缓存数据

2020-09-08 12:15:40

应用程序安全DevSecOps漏洞

2013-04-26 17:48:04

WWDC

2024-04-15 10:16:38

2021-05-12 10:19:21

CPU程序运维

2022-04-29 08:00:36

web3区块链比特币

2021-12-07 18:33:53

Kafka消息集群

2016-04-05 13:45:52

2016-10-11 16:31:56

微信服务器消息
点赞
收藏

51CTO技术栈公众号