问答 2025-01-08 来自:开发者社区

flink cdc实时同步oracle数据库到kafka报错

flink cdc实时同步oracle数据库到kafka,我自己新建的测试表可以正常同步存量和增量数据,用另一张千万级别数据的表直接启动报错Caused by: java.io.IOException: io.debezium.DebeziumException: The db history topic or its content is fully or partially missing.....

问答 2024-07-31 来自:开发者社区

在Flink CDC中,用pipeline 连接器 同步mysql数据到kafka报错了,缺少什么?

在Flink CDC中,用 pipeline 连接器 同步mysql数据到kafka报错了,是缺少什么依赖了吗?

问答 2024-07-15 来自:开发者社区

在Flink CDC中明明有创建如下,但是使用同步消费kafka中数据的时候,会显示报错?

在Flink CDC中明明有创建 Topic :tidb_tmp_sync_cdc 但是使用kafka-sync-table同步消费kafka中数据的时候,显示Could not get metadata from server?请参考图片:

问答 2024-06-26 来自:开发者社区

在Flink CDC中flink版本1.15,写入kafka报错,如何解决?

在Flink CDC中flink版本1.15,写入kafka报错,如何解决?请参考图片:

问答 2024-05-20 来自:开发者社区

Flink CDC里遇到过SInk到Kafka的这个报错么?

Flink CDC里遇到过SInk到Kafka的这个报错么:Caused by: org.apache.kafka.common.errors.TimeoutException: Topic XXX not present in metadata after 60000 ms.

文章 2024-03-09 来自:开发者社区

Flink CDC产品常见问题之upsert-kafka增加参数报错如何解决

问题一:Flink CDC里请问upsert-kafka增加参数报错是为什么? Flink CDC里请问upsert-kafka增加参数: 'sink.buffer-flush.interval' = '5', 'sink.buffer-flush.max-rows' = '100'后报错是什么原因? ...

Flink CDC产品常见问题之upsert-kafka增加参数报错如何解决
文章 2024-02-24 来自:开发者社区

Flink CDC数据同步问题之向kafka同步数据报错如何解决

问题一:使用flink cdc 同步数据到sr 有使用界面化的任务配置管理工具吗? 使用flink cdc 同步数据到sr 有使用界面化的任务配置管理工具吗? 参考答案: 我们走的是阿里的整库同步,自动映射元数据和ddl语句从mysql到starrocks,自动同步元数据,没有配置界面,直接sql指定。!E243(https:E243//ucc.ali...

Flink CDC数据同步问题之向kafka同步数据报错如何解决
问答 2024-02-06 来自:开发者社区

Flink CDC里sink到kafka出现的报错怎么办?

Flink CDC里sink到kafka出现的报错怎么办?启动的时候应该是创建了topic

问答 2024-01-24 来自:开发者社区

Flink CDC里请问upsert-kafka增加参数报错是为什么?

Flink CDC里请问upsert-kafka增加参数: 'sink.buffer-flush.interval' = '5', 'sink.buffer-flush.max-rows' = '100'后报错是什么原因?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

实时计算 Flink

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

+关注