文章 2024-08-29 来自:开发者社区

实时计算 Flink版产品使用问题之全量同步的内存释放该怎么实现

问题一:这种情况 flink cdc3.0支持吗? 有4张表left join成一张表,每张表变化都要查其他几张表的历史数据,这种情况 flink cdc3.0支持吗?之前的2.x版本问过好像不支持。有关联的字段,但是主键不相同怎么做啊?另外字段不同的多张表合并成一张大宽表,如果相同的主键怎么做? 参考答案: 相同主键直接4个cdc ,不要join,需...

实时计算 Flink版产品使用问题之全量同步的内存释放该怎么实现
文章 2024-07-16 来自:开发者社区

实时计算 Flink版产品使用问题之全量和增量同步数据的一致性、不丢失和不重复读取可以通过什么方式保证

问题一:想开flink,想先试用下产品,但是我们公司其他项目组已经开通了flink 导致我们无法试用,咋办? 想开flink,想先试用下产品,但是因为我们公司其他项目组已经开通了flink 导致我们无法试用,这个可以咋弄一下让我们可以试用呢?我们不同项目组都是各自独立的工作空间和业务。 参考答案: 如果您的公司已经开通了Flink,但其他项目组已经占用...

实时计算 Flink版产品使用问题之全量和增量同步数据的一致性、不丢失和不重复读取可以通过什么方式保证
文章 2024-06-16 来自:开发者社区

实时计算 Flink版产品使用问题之在进行Oracle数据库的全量同步时,只同步了一条数据而源表实际上包含多条数据,是什么原因

问题一:FlinkCDC源表为oracle表时,使用initial方式全量同步时,只同步过来一条数据 FlinkCDC源表为oracle表时,目标表也是oracle表,使用initial方式全量同步时,只同步过来一条数据,其实源表有很多条数据,请问是因为啥呢? 参考答案: FlinkCDC在进行全量同步时只同步了源表的一条数据,可能的原因有以下几点: ...

实时计算 Flink版产品使用问题之在进行Oracle数据库的全量同步时,只同步了一条数据而源表实际上包含多条数据,是什么原因
文章 2024-05-23 来自:开发者社区

实时计算 Flink版产品使用合集之测试使用initial模式,使用savepoint停掉再加上表,不会做全量同步,是什么导致的

问题一:Flink CDC中sink写mysql,表既有主键又有唯一键,不是幂等的,遇到过这种吗? Flink CDC中sink写mysql,表既有主键又有唯一键,不是幂等的,只能用精确一次语义,大佬遇到过这种吗? 参考答案: 是的,Flink CDC中sink写MySQL时,如果表既有主键又有唯一键,且不是幂等的,那么只能使用精确一次语义。在这种情况...

实时计算 Flink版产品使用合集之测试使用initial模式,使用savepoint停掉再加上表,不会做全量同步,是什么导致的
文章 2024-05-23 来自:开发者社区

实时计算 Flink版产品使用合集之通过scan.incremental.snapshot.chunk.key-column参数配置来处理无主键表的全量同步,增量数据进不来的原因是什么

问题一:Flink CDC中mysql-cdc jar的最新版本是多少 我在哪可以下载呢? Flink CDC中mysql-cdc jar的最新版本是多少 我在哪可以下载呢? 参考答案: 最新版本的flink-sql-connector-mysql-cdc jar不是直接可下载的,你需要最新版本的flink-sql-connector-mysql-cd...

文章 2024-05-23 来自:开发者社区

实时计算 Flink版产品使用合集之全量历史数据比较多,全量同步阶段时间长,是否会同时读取binlog进行合并输出

问题一:Flink CDC这个意思是全量阶段也会进行binlog消费吧? Flink CDC这个意思是全量阶段也会进行binlog消费吧? 参考答案: 全量阶段走的jdbc不消费binlog 关于本问题的更多回答可点击进行查看: https://developer.aliyun.com/ask/582302 ...

实时计算 Flink版产品使用合集之全量历史数据比较多,全量同步阶段时间长,是否会同时读取binlog进行合并输出
文章 2024-05-23 来自:开发者社区

实时计算 Flink版产品使用合集之在进行全量同步时,有两张表的数据没有正确进入,并且ID字段为null,该怎么处理

问题一:Flink CDC实时采集mongodb,是不是只支持mongo集群? 2023-11-24 06:56:17,588 INFO org.apache.flink.runtime.executiongraph.ExecutionGraph [] - Source: ftp_logs[1] (1/1) (00a811d7e67b1745da551cb75b99613e_b...

实时计算 Flink版产品使用合集之在进行全量同步时,有两张表的数据没有正确进入,并且ID字段为null,该怎么处理
文章 2024-05-17 来自:开发者社区

实时计算 Flink版产品使用合集之全量怎么同步到doris

问题一:Flink CDC全量怎么同步到doris的? Flink CDC全量怎么同步到doris的? 参考回答: kafka分区可以指定副本所在broker节点。要在创建topic的时候指定,你了解下 replica-assignment 这个参数 关于本问题的更多回答可点击原文查看:https://developer.aliyun...

实时计算 Flink版产品使用合集之全量怎么同步到doris
文章 2024-05-17 来自:开发者社区

实时计算 Flink版产品使用合集之ticdc可以控制全量同步的速率吗

问题一:有没有Hudi on Flink动态同步元数据变化的方法,即读取的kafka数据新增了字段? 有没有Hudi on Flink动态同步元数据变化的方法,即读取的kafka数据新增了字段,需要hudi表也动态新增该字段(这个变化发生在不同天,同一天数据元数据是一致的)。 参考回答: 目前 Hudi on Flink 动态同步元数据变化的功能并不支...

实时计算 Flink版产品使用合集之ticdc可以控制全量同步的速率吗

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注