kafka提交偏移量失败导致重复消费的解决

 更新时间:2026年01月14日 16:00:34   作者://承续缘_纪录片  
文章主要讨论了在使用Spring Kafka时遇到的`KafkaException`,特别是与消费者组和偏移量提交相关的问题,文章解释了Kafka消费者的心跳机制和`max.poll.interval.ms`配置的作用,并提供了如何在`application.yml`或`application.properties`文件中配置这些参数的示例

问题详情

org.springframework.kafka.KafkaException: Seek to current after exception; nested exception is org.apache.kafka.clients.consumer.CommitFailedException: Offset commit cannot be completed since the consumer is not part of an active group for auto partition assignment; it is likely that the consumer was kicked out of the group.
    at org.springframework.kafka.listener.SeekToCurrentBatchErrorHandler.handle(SeekToCurrentBatchErrorHandler.java:92)
    at org.springframework.kafka.listener.RecoveringBatchErrorHandler.handle(RecoveringBatchErrorHandler.java:124)
    at org.springframework.kafka.listener.KafkaMessageListenerContainer$ListenerConsumer.handleConsumerException(KafkaMessageListenerContainer.java:1365)
    at org.springframework.kafka.listener.KafkaMessageListenerContainer$ListenerConsumer.run(KafkaMessageListenerContainer.java:1063)
    at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
    at java.util.concurrent.FutureTask.run(FutureTask.java:266)
    at java.lang.Thread.run(Thread.java:748)
Caused by: org.apache.kafka.clients.consumer.CommitFailedException: Offset commit cannot be completed since the consumer is not part of an active group for auto partition assignment; it is likely that the consumer was kicked out of the group.
    at org.apache.kafka.clients.consumer.internals.ConsumerCoordinator.sendOffsetCommitRequest(ConsumerCoordinator.java:1116)
    at org.apache.kafka.clients.consumer.internals.ConsumerCoordinator.commitOffsetsSync(ConsumerCoordinator.java:983)
    at org.apache.kafka.clients.consumer.KafkaConsumer.commitSync(KafkaConsumer.java:1510)
    at org.springframework.kafka.listener.KafkaMessageListenerContainer$ListenerConsumer.doCommitSync(KafkaMessageListenerContainer.java:2311)
    at org.springframework.kafka.listener.KafkaMessageListenerContainer$ListenerConsumer.commitSync(KafkaMessageListenerContainer.java:2306)
    at org.springframework.kafka.listener.KafkaMessageListenerContainer$ListenerConsumer.commitIfNecessary(KafkaMessageListenerContainer.java:2292)
    at org.springframework.kafka.listener.KafkaMessageListenerContainer$ListenerConsumer.processCommits(KafkaMessageListenerContainer.java:2106)
    at org.springframework.kafka.listener.KafkaMessageListenerContainer$ListenerConsumer.pollAndInvoke(KafkaMessageListenerContainer.java:1097)
    at org.springframework.kafka.listener.KafkaMessageListenerContainer$ListenerConsumer.run(KafkaMessageListenerContainer.java:1031)
    ... 3 common frames omitted

解决思路

kafka的好多配置,在spring-kafka中没有明确的配置对应,但是预留了一个properties属性,可以设置所有的kafka配置

spring.kafka.properties.session.timeout.ms=10000  // 单位:毫秒

spring.kafka.properties.max.poll.interval.ms=300000 // 单位:毫秒

kafka会有一个心跳线程来同步服务端,告诉服务端自己是正常可用的,默认是3秒发送一次心跳,超过session.timeout.ms(默认10秒)服务端没有收到心跳就会认为当前消费者失效。max.poll.interval.ms决定了获取消息后提交偏移量的最大时间,超过设定的时间(默认5分钟),服务端也会认为该消费者失效。

Kafka配置max.poll.interval.ms参数

max.poll.interval.ms默认值是5分钟,如果需要加大时长就需要给这个参数重新赋值

这里解释下自己为什么要修改这个参数:因为第一次接收kafka数据,需要加载一堆基础数据,大概执行时间要8分钟,而5分钟后,kafka认为我没消费,又重新发送,导致我这边收到许多重复数据,所以我需要调大这个值,避免接收重复数据

大部分文章都是如下配置:

public static KafkaConsumer<String, String> createConsumer() {
    Properties properties = new Properties();
    properties.put(CommonClientConfigs.BOOTSTRAP_SERVERS_CONFIG, BOOTSTRAP_SERVER);
    properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
    properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
    properties.put(ConsumerConfig.GROUP_ID_CONFIG, "group1");
    properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
    properties.put(ConsumerConfig.MAX_POLL_INTERVAL_MS_CONFIG, 10000);
    return new KafkaConsumer<>(properties);
}

或是:

max.poll.interval.ms = 300000

如果需要在yml文件中配置,应该怎么写呢?

spring:
  kafka:
    consumer:
      max-poll-records: 500
  	properties:
      max.poll.interval.ms: 600000

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • SpringBoot整合Redis实现token缓存

    SpringBoot整合Redis实现token缓存

    于token通常会被多次使用,我们需要把它保存到缓存中,以减少频繁地访问数据库,本文主要介绍了SpringBoot整合Redis实现token缓存,感兴趣的可以了解一下
    2024-02-02
  • spring cloud gateway 限流的实现与原理

    spring cloud gateway 限流的实现与原理

    这篇文章主要介绍了spring cloud gateway 限流的实现与原理,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2018-12-12
  • 解决java.util.RandomAccessSubList cannot be cast to java.util.ArrayList错误的问题

    解决java.util.RandomAccessSubList cannot be cas

    当你尝试将RandomAccessSubList强制转换为ArrayList时,会抛出ClassCastException异常,解决这个问题,你可以使用List接口进行操作,或者使用ArrayList的构造函数创建新的ArrayList对象来处理子列表
    2025-11-11
  • Spring如何基于aop实现操作日志功能

    Spring如何基于aop实现操作日志功能

    这篇文章主要介绍了Spring如何基于aop实现操作日志功能,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-11-11
  • Java正则表达式匹配不到结果的解决

    Java正则表达式匹配不到结果的解决

    这篇文章主要介绍了Java正则表达式匹配不到结果的解决,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2021-02-02
  • SpringBoot使用MyBatis实现数据的CRUD

    SpringBoot使用MyBatis实现数据的CRUD

    MyBatis是一个轻量级的对象关系映射(Object-Relational Mapping,ORM)框架,它允许开发者通过编写SQL动态查询数据库,而无需显式地操作JDBC,对于增删改查操作,MyBatis提供了一种基于XML或注解的方式来进行,本文介绍了SpringBoot使用MyBatis实现数据的CRUD
    2024-11-11
  • Spring @Transactional事务失效的原因分析

    Spring @Transactional事务失效的原因分析

    一个程序中不可能没有事务,Spring中,事务的实现方式分为两种:编程式事务和声明式事务。日常项目中,我们都会使用声明式事务 @Transactional来实现事务,本文来和大家聊聊什么情况会导致@Transactional事务失效
    2022-09-09
  • springboot数据库密码加密的配置方法

    springboot数据库密码加密的配置方法

    这篇文章主要给大家介绍了关于springboot数据库密码加密的配置方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2021-04-04
  • Java实现Floyd算法求最短路径

    Java实现Floyd算法求最短路径

    这篇文章主要为大家详细介绍了Java实现Floyd算法求最短路径,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2018-01-01
  • SpringBoot API增加version版本号方式

    SpringBoot API增加version版本号方式

    这篇文章主要介绍了SpringBoot API增加version版本号方式,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
    2021-10-10

最新评论