问答 2024-08-07 来自:开发者社区

如何在 Flink 1.15 版本中处理多个数据源速率不同的问题?

如何在 Flink 1.15 版本中处理多个数据源速率不同的问题?

问答 2024-06-26 来自:开发者社区

在Flink CDC中启动两个表数据库端磁盘读速率 40M/s ,请问这个有参数可以限制吗?

在Flink CDC中读取oralce 启动一个表的任务,数据库端磁盘读速率 20M/s,启动两个表数据库端磁盘读速率 40M/s ,请问这个有参数可以限制吗?请参考图片:

问答 2024-06-16 来自:开发者社区

在Flink CDC中存在晚上批量插入有大概30分支的流量高峰, 是否有参数可控制读取速率?

在Flink CDC中因mysql大部分时间流量不大,但存在晚上批量插入有大概30分支的流量高峰, flink cdc mysql 是否有参数可控制读取binlog的速率,从而避免算子背压高,最终导致EventDataDeserializationException: Failed to deserialize data of EventHeaderV4问题?

文章 2024-05-23 来自:开发者社区

实时计算 Flink版产品使用合集之提高 MongoDB Source的消费速率如何解决

问题一:控制 Flink CDC mongo source 的消费速率,这个有朋友了解吗? 控制 Flink CDC mongo source 的消费速率,这个有朋友了解吗? 参考回答: Flink CDC MongoDB Source 提供了一些参数来控制消费速率。具体来说,你可以通过配置 flink.cdc.consumer.max-events-...

实时计算 Flink版产品使用合集之提高 MongoDB Source的消费速率如何解决
文章 2024-05-17 来自:开发者社区

实时计算 Flink版产品使用合集之ticdc可以控制全量同步的速率吗

问题一:有没有Hudi on Flink动态同步元数据变化的方法,即读取的kafka数据新增了字段? 有没有Hudi on Flink动态同步元数据变化的方法,即读取的kafka数据新增了字段,需要hudi表也动态新增该字段(这个变化发生在不同天,同一天数据元数据是一致的)。 参考回答: 目前 Hudi on Flink 动态同步元数据变化的功能并不支...

实时计算 Flink版产品使用合集之ticdc可以控制全量同步的速率吗
文章 2024-05-16 来自:开发者社区

实时计算 Flink版产品使用合集之使用Flink CDC SQL MongoDB Connector时,可以采取什么措施来提升数据消费速率

问题一:请教个问题,我想在flink消费kafka数据时,不对消费的数据进行解压缩操作有什么办法吗? 请教个问题,我想在flink消费kafka数据时,不对消费的数据进行解压缩操作有什么办法吗?我想使用这种方式来测试flink source的最大拉取速度 参考回答: 自己写一个反序列化器,里面不做任何处理,返回null就行 关于本问题...

实时计算 Flink版产品使用合集之使用Flink CDC SQL MongoDB Connector时,可以采取什么措施来提升数据消费速率
问答 2024-03-25 来自:开发者社区

Flink CDC里如果要同步A库的所有表数据到目标B库,通过FlinkCDC会对目标库产生压力吗?

Flink CDC中如果要保证业务的同时,进行同步flinkcdc可以控制速率吗?api怎么设置啊?有具体可以设置的参数名字吗?

问答 2024-03-25 来自:开发者社区

Flink CDC里大佬们知道oraclecdc时可以配置什么让他的速率快点?

大佬们知道oraclecdc可以配置什么让他的速率快点吗?感觉几万条数据,增量一下就写进了,全量得很久.

问答 2024-01-18 来自:开发者社区

Flink-CDC 2H8G 4并发下 同步速率大概应该在多少算一个正常值?

Flink-CDC 2H8G 4并发下 同步速率大概应该在多少算一个正常值?目前我这边 IN RPS 和 OUT RPS 峰值可以到达 45K ,不知道这个指标算不错还是说需要再进行部分性能调优?

问答 2023-12-05 来自:开发者社区

控制 Flink CDC mongo source 的消费速率,这个有朋友了解吗?

控制 Flink CDC mongo source 的消费速率,这个有朋友了解吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注