在flink1.17版本中消费一段时间后,kafka-group的 offset 就重置了怎么回事?
使用 阿里云全托管flink产品, 在flink1.17版本中, 使用 KafkaSource API创建source端,源码中默认开启了checkpoint的时候提交offset 到kafka-broker, 自己的代码中不用在手动开启checkopint, 全部通过 VVR产品界面开启,但是目前发现一个问题,就是消费数据的时候,消费一段时间后,kafka-group的 offset 就重置.....
通过offset和时间段查询消息
在使用Kafka的过程中遇到无法正确消费消息、消息丢失、消息延迟等消费问题时,您可通过消息查询功能查看指定消息的详细内容和相关属性,帮助您排查异常原因。若确定消息所在Topic的分区ID以及消息位点,可采用按位点查询消息;若不确定消息的位置,但确定消息发送的时间段,可采用按时间查询消息。
请教下各位大佬,现在1.14版本的kafka source的offset是默认不会提交到kafka而
请教下各位大佬,现在1.14版本的kafka source的offset是默认不会提交到kafka而是保存在状态吗?我设置的是earliest-offset,手动挺起流程后每次仍然是从头开始消费
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
云消息队列 Kafka 版您可能感兴趣
- 云消息队列 Kafka 版高性能
- 云消息队列 Kafka 版架构
- 云消息队列 Kafka 版优劣势
- 云消息队列 Kafka 版rabbitmq
- 云消息队列 Kafka 版rocketmq
- 云消息队列 Kafka 版原理
- 云消息队列 Kafka 版副本机制
- 云消息队列 Kafka 版分区
- 云消息队列 Kafka 版拷贝
- 云消息队列 Kafka 版高可用性
- 云消息队列 Kafka 版flink
- 云消息队列 Kafka 版数据
- 云消息队列 Kafka 版cdc
- 云消息队列 Kafka 版集群
- 云消息队列 Kafka 版报错
- 云消息队列 Kafka 版topic
- 云消息队列 Kafka 版配置
- 云消息队列 Kafka 版消息队列
- 云消息队列 Kafka 版同步
- 云消息队列 Kafka 版消费
- 云消息队列 Kafka 版mysql
- 云消息队列 Kafka 版apache
- 云消息队列 Kafka 版安装
- 云消息队列 Kafka 版消费者
- 云消息队列 Kafka 版消息
- 云消息队列 Kafka 版日志
- 云消息队列 Kafka 版sql
- 云消息队列 Kafka 版生产者
- 云消息队列 Kafka 版连接
- 云消息队列 Kafka 版解析
云消息队列
涵盖 RocketMQ、Kafka、RabbitMQ、MQTT、轻量消息队列(原MNS) 的消息队列产品体系,全系产品 Serverless 化。RocketMQ 一站式学习:https://rocketmq.io/
+关注