使用Java与Apache Kafka构建可靠的消息系统

开发
Apache Kafka 是一种高性能、可扩展的消息系统,适用于大规模实时数据处理场景。

Apache Kafka 是一个分布式流处理平台,也是一种高性能、可扩展的消息系统。它在处理海量数据时表现出色,而且易于使用和部署。

Apache Kafka 是一种分布式发布-订阅消息系统,由 LinkedIn 公司开发。它具有高性能、高并发、可扩展等特点,适合用于大型实时数据处理场景。Kafka 的核心概念包括:

1、消息(Message):Kafka 中的基本数据单元,由一个键和一个值组成。

2、生产者(Producer):向 Kafka 中写入消息的程序。

3、消费者(Consumer):从 Kafka 中读取消息的程序。

4、主题(Topic):消息的类别或者主要内容,每个主题可以划分为多个分区。

5、分区(Partition):主题的一个子集,每个分区都有自己的偏移量。

6、偏移量(Offset):表示消费者在某个主题中读取的位置。

Kafka 生产者用于向 Kafka 集群发送消息。在使用 Kafka 生产者时,需要指定消息的主题和消息的键和值,然后将消息发送到 Kafka 集群中。下面是使用 Kafka 生产者发送消息的代码示例:

Properties props = new Properties();
props.put("bootstrap.servers", "localhost:9092");
props.put("acks", "all");
props.put("retries", 0);
props.put("batch.size", 16384);
props.put("linger.ms", 1);
props.put("buffer.memory", 33554432);
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

Producer<String, String> producer = new KafkaProducer<>(props);
String topic = "test";
String key = "key1";
String value = "Hello, Kafka!";

ProducerRecord<String, String> record = new ProducerRecord<>(topic, key, value);

try {
    RecordMetadata metadata = producer.send(record).get();
    System.out.printf("Sent record with key='%s' and value='%s' to partition=%d, offset=%d\n",
        key, value, metadata.partition(), metadata.offset());
} catch (Exception ex) {
    ex.printStackTrace();
} finally {
    producer.close();
}

在上述代码中,我们使用了 KafkaProducer 类创建了一个生产者实例,并指定了各种配置参数。其中,bootstrap.servers 参数用于指定 Kafka 集群的地址,key.serializer 和 value.serializer 则用于指定消息键和值的序列化方式。然后,我们将消息的主题、键和值包装成一个 ProducerRecord 对象,并使用 send() 方法发送到 Kafka 集群中。最后,我们使用 get() 方法获取发送消息的元数据,并输出发送结果。

Kafka 消费者用于从 Kafka 集群中读取消息,并进行相应的处理。在使用 Kafka 消费者时,需要指定要消费的主题和在主题中的位置(也就是偏移量)。下面是使用 Kafka 消费者消费消息的代码示例:

Properties props = new Properties();
props.put("bootstrap.servers", "localhost:9092");
props.put("group.id", "test-group");
props.put("enable.auto.commit", "true");
props.put("auto.commit.interval.ms", "1000");
props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
String topic = "test";

consumer.subscribe(Collections.singletonList(topic));

while (true) {
    ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
    for (ConsumerRecord<String, String> record : records) {
        System.out.printf("Received record with key='%s' and value='%s' from partition=%d, offset=%d\n",
            record.key(), record.value(), record.partition(), record.offset());
    }
}

//consumer.close();

在上述代码中,我们使用 KafkaConsumer 类创建了一个消费者实例,并指定了各种配置参数。其中,bootstrap.servers 和 group.id 参数与生产者类似,而 enable.auto.commit 和 auto.commit.interval.ms 则用于自动提交偏移量。然后,我们使用 subscribe() 方法订阅指定的主题并进入轮询状态,通过 poll() 方法获取最新的消息记录。最后,我们输出消息记录的键、值、所在的分区和偏移量。

在实际生产环境中,Kafka 的可靠性非常重要。为了确保消息能够被有效地处理和传输,在 Kafka 中提供了多种可靠性保证机制。

1、消息复制(Message Replication) Kafka 通过将每条消息复制到多个副本来保证消息的可靠性。当其中一个 broker 处理失败时,其他 broker 可以接替它的工作,确保消息仍然可以被正确地处理。

2、优先副本选举(Preferred Replica Election) Kafka 通过选举一个或多个优先副本来增加集群的可靠性。这些优先副本可以优先处理请求,并在其他副本出现故障时接替它们的工作。

3、ISR(In-Sync Replica)机制 Kafka 中的 ISR 机制用于确保所有的副本都保持同步。只有处于 ISR 中的 broker 才能够与生产者进行通信,也才能够被选为新的 leader,从而保证消息的可靠性和一致性。

4、偏移量管理(Offset Management) Kafka 提供了不同的偏移量管理方式,包括自动提交偏移量、手动提交偏移量和定期提交偏移量。每种管理方式都有其特点和适用场景。

Apache Kafka 是一种高性能、可扩展的消息系统,适用于大规模实时数据处理场景。在 Java 中,可以使用 Kafka 生产者和消费者 API 构建可靠的消息系统。同时,Kafka 还提供了多种可靠性保证机制,以确保消息能够被有效地处理和传输。

责任编辑:张燕妮 来源: 今日头条
相关推荐

2022-06-29 10:12:33

开源

2024-03-08 22:39:55

GolangApacheKafka

2023-08-28 10:40:12

Java分布式

2020-12-28 07:52:50

CSS网站Header

2015-03-09 15:13:33

Java项目构建系统Apache Buil

2024-01-26 08:00:00

Python数据管道

2023-11-07 10:01:34

2019-09-12 08:50:37

Kafka分布式系统服务器

2023-08-08 08:00:00

架构Kafka

2022-02-19 21:22:23

Kafka事务API的

2015-01-27 10:25:42

消息系统Kafka

2024-04-03 11:36:09

KafkaRabbitMQ架构

2011-03-11 13:52:46

2020-10-14 08:36:10

RabbitMQ消息

2009-08-27 10:01:27

ibmdw云计算

2023-12-11 08:00:00

架构FlinkDruid

2019-11-29 09:49:34

Kafka系统监控

2024-02-29 07:42:00

数据系统数据库数据处理

2024-06-18 08:26:22

2023-11-17 09:00:00

Kafka开发
点赞
收藏

51CTO技术栈公众号