tulip notes
首页
  • 学习笔记

    • 《Vue》
  • 踩坑日记

    • JavaScript
  • MQ
  • Nginx
  • IdentityServer
  • Redis
  • Linux
  • Java
  • SpringBoot
  • SpringCloud
  • MySql
  • docker
  • 算法与设计模式
  • 踩坑与提升
  • Git
  • GitHub技巧
  • Mac
  • 网络
  • 项目构建合集
  • 一些技巧
  • 面试
  • 一些杂货
  • 友情链接
  • 项目发布
收藏
  • 分类
  • 标签
  • 归档
GitHub (opens new window)

Star-Lord

希望一天成为大师的学徒
首页
  • 学习笔记

    • 《Vue》
  • 踩坑日记

    • JavaScript
  • MQ
  • Nginx
  • IdentityServer
  • Redis
  • Linux
  • Java
  • SpringBoot
  • SpringCloud
  • MySql
  • docker
  • 算法与设计模式
  • 踩坑与提升
  • Git
  • GitHub技巧
  • Mac
  • 网络
  • 项目构建合集
  • 一些技巧
  • 面试
  • 一些杂货
  • 友情链接
  • 项目发布
收藏
  • 分类
  • 标签
  • 归档
GitHub (opens new window)
  • 各种MQ

    • 初识kafka
    • 了解RabbitMQ
    • 深入了解Kafka
      • 高并发高吞吐的原因
        • 顺序写入与磁盘优化
        • 零拷贝(Zero-Copy)技术
        • 批量处理与压缩
        • 多线程与异步处理
        • 分布式与分区并行
        • 不同场景配置建议
      • 开发者需要注意
        • 生产者(Producer)优化
        • 消费者(Consumer)优化
        • Topic 与分区设计
        • 网络与资源调优
        • 监控与故障处理
      • 消息的处理
        • 消息如何选择方向
        • 生产的消息如何保证稳定性
        • 消费的消息如何保证一定被消费
        • 提交偏移量发生在哪个部分
        • 提交偏移量的作用
        • 提交偏移请求给谁
        • 消息的幂等性
    • SpringBoot中使用kafka
  • Nginx

  • IdentityServer

  • Redis

  • Linux

  • 中间件
  • 各种MQ
EffectTang
2025-03-06
目录

深入了解Kafka

# 深入了解Kafka

# 高并发高吞吐的原因

kafka 客户端的高并发和高吞吐设计是其核心优势之一,其实现基于多种底层技术和架构优化。理解这些机制有助于开发者更好地设计和优化基于Kafka的应用程序,比如如何有效地配置Kafka集群参数、怎样合理规划主题和分区的数量、以及如何选择合适的消息传递模式等。掌握这些知识可以帮助你构建更高效、更可靠的消息处理系统。

那它到底用了哪些技术呢?

高并发高吞吐设计基于顺序 I/O、零拷贝、批量处理、分区并行等核心技术。

# 顺序写入与磁盘优化

  • 顺序追加写入:Kafka 将消息按顺序追加到分区(Partition)的日志文件中,避免随机磁盘寻址,充分利用磁盘顺序写入的高性能(比随机写入快 5-10 倍)1610。
  • 分段存储(Segment):每个 Partition 分为多个 Segment 文件(默认 1GB),便于旧数据的快速删除和新数据的顺序写入,减少文件操作的复杂度36。
  • Page Cache 利用:数据写入时直接进入操作系统的页缓存(Page Cache),由操作系统异步刷盘,减少用户态与内核态的数据拷贝,同时避免 JVM GC 开销41011。

# 零拷贝(Zero-Copy)技术

  • 减少数据拷贝次数:通过 sendfile 系统调用,数据从磁盘文件直接发送到网卡缓冲区,跳过了用户态的中转(传统方式需 4 次拷贝,零拷贝仅需 2 次),大幅降低 CPU 和内存开销2610。
  • 适用场景:Consumer 消费消息时,若无需处理消息内容,可直接通过零拷贝传输,提升吞吐量811。

# 批量处理与压缩

  • 生产者批量发送:通过 batch.size(默认 16KB)和 linger.ms(等待时间)参数,将多条消息合并为单个网络请求,减少网络 I/O 次数611。
  • 消息压缩:支持 GZIP、Snappy 等压缩算法,减少网络传输和磁盘存储的数据量(尤其适合文本类消息),压缩后的消息在 Broker 和 Consumer 端透明处理110

# 多线程与异步处理

  • NIO 多线程模型:Broker 采用 Reactor 模式,分离网络 I/O 和业务处理线程,由 Acceptor 接收连接、Processor 处理读写、Handler 处理业务逻辑,提升并发能力211。
  • 异步刷盘与副本同步:数据写入 Page Cache 后立即返回成功,由后台线程异步刷盘,同时副本同步(Replication)通过异步或半同步机制实现高吞吐310。

# 分布式与分区并行

  • 分区(Partition)并发:Topic 划分为多个 Partition,每个 Partition 可被独立生产和消费,实现并行处理611。
  • 负载均衡:Producer 根据 Key 哈希或轮询策略分发消息到不同 Partition,Consumer Group 内通过分区分配策略(如 Range、Round-Robin)实现负载均衡

# 不同场景配置建议

场景 配置建议
高吞吐写入 batch.size=512KB, linger.ms=100, compression.type=snappy
低延迟消费 max.poll.records=500, fetch.min.bytes=1MB, fetch.max.wait.ms=100
数据高可靠 acks=all, min.insync.replicas=2, replication.factor=3

# 开发者需要注意

# 生产者(Producer)优化

  • 批量发送配置:合理设置 batch.size 和 linger.ms,平衡吞吐量与延迟(例如:高吞吐场景可增大 batch.size 至 512KB)1011。
  • 压缩算法选择:根据消息类型选择压缩算法(如 Snappy 适合低 CPU 开销,GZIP 压缩率更高)110。
  • 重试与幂等性:启用 enable.idempotence=true 避免消息重复,结合 retries 和 max.in.flight.requests.per.connection 控制重试策略11。

# 消费者(Consumer)优化

  • 批量拉取:通过 max.poll.records 控制单次拉取消息数,减少网络交互频率11。
  • 消费并行度:确保 Consumer 实例数不超过 Partition 数,避免资源闲置11。
  • 手动提交 Offset:关闭 enable.auto.commit,在处理完成后手动提交 Offset,避免重复消费

# Topic 与分区设计

  • 分区数量规划:根据目标吞吐量和 Consumer 并行度设置分区数(例如:单分区吞吐约 10MB/s,需预留扩容空间)611。
  • 分区键(Key)选择:对需要保序的消息指定 Key,确保相同 Key 的消息进入同一分区11。

# 网络与资源调优

  • Broker 线程池配置:调整 num.network.threads(网络线程数)和 num.io.threads(IO 线程数),匹配 CPU 核心数211。
  • 操作系统参数:优化 Linux 的 Socket 缓冲区大小(net.core.wmem_default 和 net.core.rmem_default)和文件描述符限制10。

# 监控与故障处理

  • 指标监控:关注 RequestLatency、NetworkProcessorAvgIdlePercent 等指标,识别瓶颈211。
  • 副本同步机制:设置 min.insync.replicas 确保数据可靠性,避免因副本不足导致写入失败

# 消息的处理

# 消息如何选择方向

消息被发送到哪个主题(Topic)确实是由生产者(Producer)决定的。

生产者在发送消息时,需要指定目标主题名称。至于消息最终存储在哪个分区(Partition),这并不是直接由主题决定的,而是基于以下几种因素:

  1. 消息键(Message Key):如果生产者在发送消息时指定了一个键,Kafka默认会使用该键的哈希值来决定消息应该发送到哪个分区。这种方式确保了具有相同键的消息会被分配到同一个分区,从而保证这些消息的顺序性。
  2. 自定义分区器(Partitioner):生产者可以通过设置自定义的分区器来控制消息如何分配给分区。自定义分区器允许你根据特定逻辑(例如,某些业务规则)决定消息应该发送到哪个分区。
  3. 无消息键或默认分区策略:如果没有为消息指定键,或者使用了默认的分区器,Kafka通常会采用轮询(Round Robin)的方式将消息均匀地分布到不同的分区中。这样做可以实现负载均衡,最大化并行处理能力。
  4. 手动指定分区:在某些情况下,生产者也可以直接指定消息应该发送到的具体分区号。这种方法提供了最精确的控制,但减少了Kafka自动分配带来的灵活性和负载均衡优势。

# 生产的消息如何保证稳定性

# 消费的消息如何保证一定被消费

# 提交偏移量发生在哪个部分

提交偏移量主要发生在消费者端。当消费者从Kafka中读取消息后,它需要一种方式来记录已经成功处理到了哪一条消息。这个记录点被称为偏移量(Offset)。消费者可以选择自动或手动的方式提交这些偏移量。

  • 自动提交偏移量:如果启用了自动提交(通过设置enable.auto.commit=true),那么Kafka客户端会在后台定期自动提交当前消费的最新偏移量。默认情况下,这个过程每隔5分钟发生一次(可以通过auto.commit.interval.ms配置调整时间间隔)。
  • 手动提交偏移量:开发者也可以选择禁用自动提交(设置enable.auto.commit=false),然后在代码逻辑中明确地控制何时提交偏移量。这种方式提供了更大的灵活性,允许在确保消息被正确处理之后再提交偏移量,有助于避免消息丢失的情况。

# 提交偏移量的作用

提交偏移量的主要作用是用来标记消费者组内每个分区的消息消费进度。具体来说:

  • 防止重复消费:一旦偏移量被提交,Kafka就会认为该偏移量之前的所有消息都已经被成功消费了。这意味着如果消费者崩溃或重启,它可以从中断的地方继续消费,而不会重新消费那些已经提交偏移量之前的旧消息。
  • 确保消息至少被消费一次:虽然提交偏移量有助于追踪消费进度,但在某些情况下(如网络故障、进程崩溃等),可能会导致消息被重复消费。这是因为消费者可能在实际处理完消息但还未提交偏移量时失败了,下次启动时会重新消费这部分消息。
  • 支持消费者扩展与负载均衡:通过偏移量的管理和提交,Kafka能够有效地支持消费者组内的动态扩展和负载均衡。新的消费者加入或现有消费者离开时,Kafka可以根据各消费者的偏移量情况重新分配分区,以达到最优的资源利用。

# 提交偏移请求给谁

提交偏移量的请求并不是发送给主题(Topic),而是发送给Kafka的协调者(Coordinator)。具体来说,消费者会将偏移量提交的信息发送给负责管理该消费者组的Kafka broker,这个broker充当了消费者的协调者角色。

# 消息的幂等性

上次更新: 2025/04/23, 16:23:16
了解RabbitMQ
SpringBoot中使用kafka

← 了解RabbitMQ SpringBoot中使用kafka→

最近更新
01
面向切面跟自定义注解的结合
05-22
02
时间跟其他数据的序列化
05-19
03
数据加密与安全
05-17
更多文章>
Theme by Vdoing | Copyright © 2023-2025 EffectTang
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式