1. 概述
Apache Kafka是一个功能强大、开源、分布式、容错的事件流平台。但是,当我们使用Kafka发送大于配置的大小限制的消息时,就会出错。
我们在之前的教程中展示了如何使用 Spring 和 Kafka 。在本教程中,我们将了解如何使用 Kafka 发送大消息。
2. 问题陈述
Kafka 配置限制了允许发送的消息的大小。 默认情况下,此限制为 1MB。但是,如果需要发送大消息,我们需要根据我们的要求调整这些配置。
在本教程中,我们使用 Kafka v2.5。 在进行配置之前,让我们首先了解一下 Kafka 设置。
3. 设置
在这里,我们将使用基本的 Kafka 设置和单个代理。此外,生产者应用程序可以使用 Kafka Client 通过定义的主题向 Kafka Broker 发送消息。此外,我们使用单个分区主题:
我们可以在这里观察到多个交互点,例如 Kafka Producer、Kafka Broker、Topic 和 Kafka Consumer。因此, 所有这些都需要配置更新才能从一端向另一端发送大消息 。
让我们详细研究一下这些配置,以发送 20MB 的大消息。
3.Kafka生产者配置
这是我们消息的第一个来源。我们使用 Spring Kafka 将消息从我们的应用程序发送到 Kafka 服务器。
因此, 需要首先更新属性“ max.request.size ” 。有关此生产者配置的其他详细信息可在Kafka 文档中找到。这在 Kafka 客户端库中作为常量 ProducerConfig.MAX_REQUEST_SIZE_CONFIG 提供,它作为 Spring Kafka 依赖项的一部分提供。
我们将此值配置为 20971520 字节:
public ProducerFactory<String, String> producerFactory() {
Map<String, Object> configProps = new HashMap<>();
configProps.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapAddress);
configProps.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
configProps.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
configProps.put(ProducerConfig.MAX_REQUEST_SIZE_CONFIG, "20971520");
return new DefaultKafkaProducerFactory<>(configProps);
}
4.Kafka主题配置
我们的消息生成应用程序将消息发送到已定义主题上的 Kafka Broker。因此,下一个要求是配置使用的Kafka Topic。这意味着我们需要 更新默认值为 1MB 的“ max.message.bytes ”属性 。
这保存了压缩后 Kafka 最大记录批量大小的值(如果启用了压缩)。其他详细信息可在Kafka 文档中找到。
让我们在创建主题时使用 CLI 命令手动配置此属性:
./kafka-topics.sh --bootstrap-server localhost:9092 --create --topic longMessage --partitions 1 \
--replication-factor 1 --config max.message.bytes=20971520
或者,我们可以通过 Kafka 客户端配置此属性:
public NewTopic topic() {
NewTopic newTopic = new NewTopic(longMsgTopicName, 1, (short) 1);
Map<String, String> configs = new HashMap<>();
configs.put("max.message.bytes", "20971520");
newTopic.configs(configs);
return newTopic;
}
至少,我们需要配置这两个属性。
5.Kafka代理配置
可选配置属性“ message.max.bytes ”可用于允许 Broker 上的所有主题接受大小大于 1MB 的消息。
这保存了压缩后 Kafka 允许的最大记录批量大小的值(如果启用了压缩)。其他详细信息可在Kafka 文档中找到。
让我们在 Kafka Broker 的“ server.properties” 配置文件中添加此属性:
message.max.bytes=20971520
此外,“ message.max.bytes” 和“ max.message.bytes ”中的最大值将是使用的有效值。
6. 消费者配置
让我们看看 Kafka 消费者可用的配置设置。尽管这些更改对于消费大型消息来说不是强制性的,但避免它们可能会对消费者应用程序的性能产生影响。因此,最好也有这些配置:
- max.partition.fetch.bytes :此属性限制消费者可以从主题分区获取的字节数。其他详细信息可在Kafka 文档中找到。这可以作为 Kafka 客户端库中名为 ConsumerConfig.MAX_PARTITION_FETCH_BYTES_CONFIG 的常量使用
- fetch.max.bytes :此属性限制消费者可以从 Kafka 服务器本身获取的字节数。 Kafka 消费者也可以监听多个分区。其他详细信息可在Kafka 文档中找到。这可以作为 Kafka 客户端库中的常量 ConsumerConfig.FETCH_MAX_BYTES_CONFIG 使用
因此,为了配置我们的消费者,我们需要创建一个 KafkaConsumerFactory 。请记住,与 主题/代理 配置相比,我们始终需要使用更高的值:
public ConsumerFactory<String, String> consumerFactory(String groupId) {
Map<String, Object> props = new HashMap<>();
props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapAddress);
props.put(ConsumerConfig.GROUP_ID_CONFIG, groupId);
props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
props.put(ConsumerConfig.MAX_PARTITION_FETCH_BYTES_CONFIG, "20971520");
props.put(ConsumerConfig.FETCH_MAX_BYTES_CONFIG, "20971520");
return new DefaultKafkaConsumerFactory<>(props);
}
在这里,我们对两个属性使用相同的配置值 20971520 Bytes,因为我们使用单个分区 Topic 。但是, FETCH_MAX_BYTES_CONFIG 的值应高于 MAX_PARTITION_FETCH_BYTES_CONFIG。 当我们有消费者监听多个分区时, FETCH_MAX_BYTES_CONFIG 表示可以从多个分区获取的消息大小。另一方面,配置 MAX_PARTITION_FETCH_BYTES_CONFIG 表示从单个分区获取消息的大小。
7.替代方案
我们看到了如何更新 Kafka 生产者、主题、代理和 Kafka 消费者中的不同配置以发送大消息。但是,我们通常应该避免使用 Kafka 发送大消息。大消息的处理会消耗我们生产者和消费者更多的CPU和内存。因此最终在某种程度上限制了它们对其他任务的处理能力。此外,这可能会给最终用户带来明显的高延迟。
让我们看看其他可能的选择:
- Kafka生产者提供了压缩消息的功能。此外,它支持不同的压缩类型,我们可以使用 compression.type 属性进行配置。
- 我们可以将大消息存储在共享存储位置的文件中,并通过 Kafka 消息发送该位置。这可能是一个更快的选项,并且处理开销最小。
- 另一种选择是在生产者端将大消息拆分为每个大小为 1KB 的小消息。之后,我们可以使用分区键将所有这些消息发送到单个分区,以确保顺序正确。因此,稍后,在消费者端,我们可以从较小的消息重构大消息。
如果上述选项都不适合我们的要求,我们可以采用前面讨论的配置。
八、结论
在本文中,我们介绍了发送大小超过 1MB 的大消息所需的不同 Kafka 配置。
我们涵盖了生产者、主题、代理和消费者端的配置需求。但是,其中一些是强制性配置,而另一些则是可选的。此外,消费者配置是可选的,但最好避免负面的性能影响。
最后,我们还介绍了发送大消息的替代可能选项。
与往常一样,代码示例可以在 GitHub 上找到。