问答 2021-12-07 来自:开发者社区

默认情况下offset会不会提交到kafka分区?

我正在使用DDL语句创建kafka数据源,但是查看文档时候发现没有报漏参数指定消费者组的offset是否提交,请问这个默认情况下offset会不会提交到kafka分区?*来自志愿者整理的flink邮件归档

问答 2021-12-07 来自:开发者社区

Flink使用Kafka作为source时checkpoint成功提交offset的机制

大家好,请教一个问题, 当Flink在使用Kafka作为source,并且checkpoint开启时,提交的offset是在消息被链路最后一个算子处理之后才会把这条offset提交吗? 还是说这个消息只要从Kafka source读取后,不论链路处理到哪个算子, checkpoint成功时就会把它的offset提交呢? 另外有大神指路这段代码具体在哪个文件吗? 谢谢! -- Best Wis...

问答 2021-12-05 来自:开发者社区

Flinkjob消费kafka 失败,无法拿到offset值,如何解决

有一个flink job在消费kafka topic消息,该topic存在于kafka两个集群cluster A 和Cluster B,Flink Job消费A集群的topic一切正常,但切换到消费B集群就启动失败。 Flink 集群采用Docker部署,Standalone模式。集群资源充足,Slot充足。报错日志如下: java.lang.Exception: org.apache.ka...

问答 2021-12-05 来自:开发者社区

Flink job消费kafka 失败,无法拿到offset值,请指教

有一个flink job在消费kafka topic消息,该topic存在于kafka两个集群cluster A 和Cluster B,Flink Job消费A集群的topic一切正常,但切换到消费B集群就启动失败。 Flink 集群采用Docker部署,Standalone模式。集群资源充足,Slot充足。报错日志如下: java.lang.Exception: org.apache.ka...

问答 2021-12-05 来自:开发者社区

Flink SQL Metrics中Kafka Offset请教

Flink SQL任务提交后,从JobManager监控指标中发现kafka的offset有2个指标信息,currentOffsets和committedOffsets,当Kafka无新增数据,程序运行一段时间后,发现指标仪表盘上显示 currentOffsets:2897 committedOffsets:2898 这2个值没有变化(应该是数据已经消费完毕了),现在的疑惑是:怎么这2个offs....

问答 2021-12-03 来自:开发者社区

Flinkjob消费kafka 失败,无法拿到offset值怎么办?

问题如上,哪位大佬可以帮忙看下怎么办吗?*来自志愿者整理的FLINK邮件归档

问答 2021-12-02 来自:开发者社区

请教如何在flink job 自定义kafka source function 及时提交offset

我有这样一个业务场景,在checkpoint disable的情况下,不想用auto.commit 功能在等待interval时间后提交offsets, 想要在flink job sink 完成后及时提交offset, 我阅读了一下flinkKafkaConsumer的源码,没有找到实现方式,麻烦请教大神有什么建议的实现方式吗? 或者还有什么其他的建议? 谢谢!  附件中是我写的测试代码...

问答 2021-12-02 来自:开发者社区

关于flink sql的kafka source的开始消费offset相关问题。

如题,按照官方文档的kafka source部分,有如下配置说明。 scan.startup.mode : optionalgroup-offsetsStringStartup mode for Kafka consumer, valid values are 'earliest-offset', 'latest-offset', 'group-offsets', 'timestamp' ...

问答 2021-01-06 来自:开发者社区

如果 checkpoint offset 未提交到 kafka,此时节点宕机了,重启重复消费如何保证

如果 checkpoint 时间过长,offset 未提交到 kafka,此时节点宕机了,重启之后的重复消费如何保证呢?

文章 2020-07-22 来自:开发者社区

Kafka offset commit 分析工具

问题起因 前些天生产上的一套Kafka集群吞吐量异常高,根据Grafana监控发现主要数据TPS来自 __consumer_offsets队列。 其他业务TOPIC总TSP才几百+,而kafka内部Topic __consumer_offsets 达到33.85k,这现象明显不正常啊。 排查思路 首先怀疑是不是监控出问题了,Prometheus Exporter有bug? 还是Grafana .....

Kafka offset commit 分析工具

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云消息队列

涵盖 RocketMQ、Kafka、RabbitMQ、MQTT、轻量消息队列(原MNS) 的消息队列产品体系,全系产品 Serverless 化。RocketMQ 一站式学习:https://rocketmq.io/

+关注