问答 2024-08-19 来自:开发者社区

未来在 Flink CDC 写入 Hudi 的技术上有哪些规划?

未来在 Flink CDC 写入 Hudi 的技术上有哪些规划?

问答 2024-08-19 来自:开发者社区

在使用 Flink CDC 写入 Hudi 时,如何解决数据倾斜问题?

在使用 Flink CDC 写入 Hudi 时,如何解决数据倾斜问题?

问答 2024-08-13 来自:开发者社区

为什么选择Flink和Hudi作为增量化方案的核心组件?

为什么选择Flink和Hudi作为增量化方案的核心组件?

问答 2024-07-31 来自:开发者社区

flink cdc写入hudi的用hive管理元数据的表,这个是什么问题呢?

flink cdc写入hudi的用hive管理元数据的表,现在发现hudi表数据写入成功了,但是没有把分区信息同步到hive,在hive中查询不出来,这个是什么问题呢?

文章 2024-07-17 来自:开发者社区

实时计算 Flink版操作报错合集之 写入hudi时报错,该如何排查

问题一:Flink CDC里这个入参json为什么会变成这样? Flink CDC里这个入参json为什么会变成这样? 代码是这样的,拿到json就是乱七八糟,不知道为什么? ...

实时计算 Flink版操作报错合集之 写入hudi时报错,该如何排查
文章 2024-07-17 来自:开发者社区

实时计算 Flink版操作报错合集之同步tidb到hudi报错,一般是什么原因

问题一:Flink中kafka总共有16266条数据, 但是消费到6144就停止并报这两条日志了? Flink中kafka总共有16266条数据, 但是消费到6144就停止并报这两条日志了? 参考答案: ...

实时计算 Flink版操作报错合集之同步tidb到hudi报错,一般是什么原因
文章 2024-07-16 来自:开发者社区

实时计算 Flink版产品使用问题之使用Spark ThriftServer查询同步到Hudi的数据时,如何实时查看数据变化

问题一:flink cdc哪个版本有sqlserverCatalog,能根据表名拿到对应的字段和字段类型? flink cdc哪个版本有sqlserverCatalog,能根据表名拿到对应的字段和字段类型? 参考答案: 你指的是flink-connector-jdbc吧,这个是连接器的特性,1.17的好像就支持了 ...

实时计算 Flink版产品使用问题之使用Spark ThriftServer查询同步到Hudi的数据时,如何实时查看数据变化
问答 2024-07-15 来自:开发者社区

在Flink CDC中sink hudi 遇到这个问题怎么解决?

在Flink CDC中sink hudi 遇到这个问题怎么解决?请参考图片:

文章 2024-06-17 来自:开发者社区

实时计算 Flink版操作报错合集之写入Hudi时,遇到从 COW(Copy-On-Write)表类型转换为 MOR(Merge-On-Read)表类型时报字段错误,该怎么办

问题一:Flink这个是什么原因会推导成这样呀? Flink这个是什么原因会推导成这样呀? 参考回答: Flink中字段类型推导: 在上述JSON示例中,info.key被推测为timestamp类型的情况,通常发生在Flink对JSON数据进行解析并自动推断schema的过程中。这可能是因为: JSON解析器默...

实时计算 Flink版操作报错合集之写入Hudi时,遇到从 COW(Copy-On-Write)表类型转换为 MOR(Merge-On-Read)表类型时报字段错误,该怎么办
文章 2024-06-17 来自:开发者社区

实时计算 Flink版操作报错合集之从hudi读数据,报错NoSuchMethodError:org.apache.hudi.format.cow.vector.reader.PaequetColumnarRowSplit.getRecord(),该怎么办

问题一:这个问题怎么解决 ?是bug嘛 ? 这里是flink cdc3.0.0的版本 这个问题怎么解决 ?是bug嘛 ? 这里是flink cdc3.0.0的版本 参考回答: 你这里是SchemaOperator向SchemaRegistry发送ReleaseUpstreamRequest请求在等待响应的时候报请求超时 所以说 你任务中肯定有SchemaChan...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

实时计算 Flink

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

+关注