Flink中cdas整库同步是否支持sink段到kafka形成一个topic?目前我知道是不可以的,
Flink中cdas整库同步是否支持sink段到kafka形成一个topic?目前我知道是不可以的,不知道未来会不会这样做,那就只能用datastream接入全部数据打入kafka单topic了,加解密数据,愁死人了,加解密还不让我们来操作 看来得看看paimon
大佬们请教一个flink 重启生产者的问题,我通过检查点重启作业,但是sink的Kafka ?
大佬们请教一个flink 重启生产者的问题,我通过检查点重启作业,但是sink的Kafka topic换了,就一直报错说生产者尝试使用producer id,但是当前没有给其分配对应的transactional id,这个怎么解决?我通过网上了解到的 producer启动时Kafka会为其分配一个唯一的producer id,这个transactional id是我们自己手动指定的?
大佬们请教一个Flink CDC重启生产者的问题,我通过检查点重启作业,但是sink的Kafka ?
大佬们请教一个Flink CDC重启生产者的问题,我通过检查点重启作业,但是sink的Kafka topic换了,就一直报错说生产者尝试使用producer id,但是当前没有给其分配对应的transactional id,这个怎么解决?我通过网上了解到的 producer启动时Kafka会为其分配一个唯一的producer id,这个transactional id是我们自己手动指定的?
flink cdc sink kafka 作业重启 taskmanaget一直在初始化是什么原?
flink cdc sink kafka 作业重启 taskmanaget一直在初始化是什么原因?他这个tm日志一直再刷ProducerId,是是什么意思?
请问下,sink还没有成功,执行checkpoint会把这条数据的offset提交到kafka吗?会
请问下,sink还没有成功,执行checkpoint会把这条数据的offset提交到kafka吗?会不会存在还没sink成功,但已经把offset提上去了的情况呢?
各位, 请问: flink cdc, 用 flink sql 的方式 sink 到 kafka 可以
各位, 请问: flink cdc, 用 flink sql 的方式 sink 到 kafka 可以指定输出 schema 信息嘛? 看到好像只有 api 中可以指定 .deserializer(new JsonDebe...
有没有小伙伴试过在sink到Kafka的时候让相同的key到Kafka同一个分区?保证相同key是有
有没有小伙伴试过在sink到Kafka的时候让相同的key到Kafka同一个分区?保证相同key是有序的
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
云消息队列 Kafka 版您可能感兴趣
- 云消息队列 Kafka 版原理
- 云消息队列 Kafka 版报错
- 云消息队列 Kafka 版云原生
- 云消息队列 Kafka 版技术
- 云消息队列 Kafka 版案例
- 云消息队列 Kafka 版rabbitmq
- 云消息队列 Kafka 版选型
- 云消息队列 Kafka 版timeoutexception
- 云消息队列 Kafka 版发送失败
- 云消息队列 Kafka 版分发
- 云消息队列 Kafka 版flink
- 云消息队列 Kafka 版数据
- 云消息队列 Kafka 版cdc
- 云消息队列 Kafka 版分区
- 云消息队列 Kafka 版集群
- 云消息队列 Kafka 版topic
- 云消息队列 Kafka 版配置
- 云消息队列 Kafka 版消息队列
- 云消息队列 Kafka 版同步
- 云消息队列 Kafka 版消费
- 云消息队列 Kafka 版mysql
- 云消息队列 Kafka 版apache
- 云消息队列 Kafka 版安装
- 云消息队列 Kafka 版消费者
- 云消息队列 Kafka 版消息
- 云消息队列 Kafka 版日志
- 云消息队列 Kafka 版sql
- 云消息队列 Kafka 版生产者
- 云消息队列 Kafka 版连接
- 云消息队列 Kafka 版解析
云消息队列
涵盖 RocketMQ、Kafka、RabbitMQ、MQTT、轻量消息队列(原MNS) 的消息队列产品体系,全系产品 Serverless 化。RocketMQ 一站式学习:https://rocketmq.io/
+关注