问答 2024-04-15 来自:开发者社区

使用Flink CDC 同步MySQl。配置了多张表, 有一张A表删除了字段,然后停止同步后怎么做?

使用Flink CDC 同步MySQl。配置了多张表, 有一张A表删除了字段,然后停止同步,将A表移除同步队列,过了一段时间之后将A表加回去,但是读取Schema的时候还是可以读取到已经删除的字段,导致报错和实际字段数量不一致,这种情况要怎么处理?消费点位是和单张表绑定的么?

问答 2024-04-15 来自:开发者社区

Flink CDC里flink流作业1读取paimon表A数据插入另一张表,后面怎么做?

Flink CDC里flink流作业1读取paimon表A数据插入另一张表,paimon表A如果drop重建后,流作业1会假死,这种情况是不是必须得把流作业1重新启动?这个假死是正常情况吗,是因为flink作业还是读取的没重建表的snapshot?

问答 2024-04-15 来自:开发者社区

Flink CDC里假设我现在有台服务器是10G内存,这种情况怎么做?

Flink CDC里假设我现在有台服务器是10G内存,YARN的node manager给的也是10G内存,后面服务器动态加了10G内存,如何在不重启Hadoop的情况下加上这10G内存?如果YARN上运行了很多任务呢,岂不是全都要停掉?

问答 2024-04-15 来自:开发者社区

Flink CDC里earliest-offset:跳过快照阶段,接下来怎么做?

Flink CDC里earliest-offset:跳过快照阶段,从可读取的最早 binlog 位点开始读取设置这个后,比如我保留七天的binlog,他是会从这七天最早的起点开始读取吗?我遇到一个问题,我的结果表少了一批数据,我就设置这个参数去补,结果就读了几万条数据就开始增量同步了,然后丢的数据依然没有补回来,这是什么原因呢?

问答 2024-04-08 来自:开发者社区

Flink CDC里flink yarn session 模式中这个操作怎么做?

Flink CDC里flink yarn session 模式中启动的flink任务链接是 http IP 想把IP映射为主机hadoop 这个在哪里操作呢?主机映射已经改了但是还是没有过来。

问答 2024-04-02 来自:开发者社区

Flink CDC里flink1.17写doris的代码怎么做?

Flink CDC里flink1.17写doris的代码,hadooo集群节点磁盘满了我在线扩容,扩容后flink写doris报这个错,请教大家。[1] (1/1) (6fae202bcc093b5e54514400ccc297d3_bc764cd8ddf7a0cff126f51c16239658_0_3) switched from DEPLOYING to FAILED on ahadoop....

问答 2024-04-02 来自:开发者社区

我想问一下,我用的是flink mysql cdc2.3.0,这个效果怎么做?

我想问一下,我用的是flink mysql cdc2.3.0,然后一开始设置.tableList("test.test.*,test.test,test.test1"),然后我新建一张表test2,接着把任务停掉,再在tableList("test.test.*,test.test,test.test1,test.test2")添加了,从checkpoint启动,为什么不生效呢?

问答 2024-04-02 来自:开发者社区

我有一个flink cdc的任务该怎么做?

我有一个flink cdc的任务,提交到一个flink on yarn session的集群中运行,提交任务的时候,main里面的代码都执行完了,但在启动sink提示一个类找不到,这个类是我cdc任务的Jar包里面的一个类,直接用standalone模式可以正常提交,知道这是什么原因吗,cdc的任务条到fink on yarn session是不是还有什么配置呢?

问答 2024-03-26 来自:开发者社区

Flink CDC 里我现在需要同步一个数据库的数据转换到另一个库需要怎么做?

Flink CDC 里我现在需要同步一个数据库的数据转换到另一个库,大概有100+张表数据,有些数据需要清洗。又不能影响业务正常使用。我想着用CDC程序同步,但是可能要同时起很多source job,这样对原数据库的会有什么影响吗?

问答 2024-03-25 来自:开发者社区

使用 flink-cdc 3.0.1 savepoint 如何指定啊?

使用 flink cdc 从 MySQL 同步数据到 StarRocks,现在已经使用 flink-cdc yaml 的方式同步成功了,也使用 flink stop job 成功了,现在想要增加新表,然后从之前 stop 的 savepoint 进行同步应该怎么做?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

实时计算 Flink

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

+关注