文章 2024-07-17 来自:开发者社区

实时计算 Flink版操作报错合集之同步tidb到hudi报错,一般是什么原因

问题一:Flink中kafka总共有16266条数据, 但是消费到6144就停止并报这两条日志了? Flink中kafka总共有16266条数据, 但是消费到6144就停止并报这两条日志了? 参考答案: ...

实时计算 Flink版操作报错合集之同步tidb到hudi报错,一般是什么原因
文章 2024-07-16 来自:开发者社区

实时计算 Flink版产品使用问题之使用Spark ThriftServer查询同步到Hudi的数据时,如何实时查看数据变化

问题一:flink cdc哪个版本有sqlserverCatalog,能根据表名拿到对应的字段和字段类型? flink cdc哪个版本有sqlserverCatalog,能根据表名拿到对应的字段和字段类型? 参考答案: 你指的是flink-connector-jdbc吧,这个是连接器的特性,1.17的好像就支持了 ...

实时计算 Flink版产品使用问题之使用Spark ThriftServer查询同步到Hudi的数据时,如何实时查看数据变化
文章 2024-06-16 来自:开发者社区

实时计算 Flink版产品使用问题之同步到Hudi的数据是否可以被Hive或Spark直接读取

问题一:Flink CDC这个应该在哪里配? Flink CDC这个应该在哪里配?mysql 的超时我已经改成30s了 参考答案: 要么找DBA改一下,要么自己去看有没有参数改,我们是10分钟,有的...

实时计算 Flink版产品使用问题之同步到Hudi的数据是否可以被Hive或Spark直接读取
文章 2024-05-18 来自:开发者社区

实时计算 Flink版操作报错合集之通过flink sql形式同步数据到hudi中,本地启动mian方法报错如何解决

问题一:请教下我通过flink sql形式同步数据到hudi中 一直找不到问题所在之处? 请教下我通过flink sql形式同步数据到hudi中 本地启动mian方法报错 MiniCluster is not yet running or has already been shut down. 一直找不到问题所在之处?请 大佬们指点指点 参考回答: 这...

实时计算 Flink版操作报错合集之通过flink sql形式同步数据到hudi中,本地启动mian方法报错如何解决
文章 2024-05-17 来自:开发者社区

实时计算 Flink版产品使用合集之可以支持 MySQL 数据源的增量同步到 Hudi 吗

问题一:flink并行度为1,接收发送字节都为0,有什么办法显示接收和发送字节数? flink并行度为1,接收发送字节都为0,有什么办法显示接收和发送字节数? 参考回答: 把你的算子链断开 ...

实时计算 Flink版产品使用合集之可以支持 MySQL 数据源的增量同步到 Hudi 吗
问答 2024-04-15 来自:开发者社区

Flink CDC里哪位有上亿数据量的oracle 同步到 hudi的例子,可以分享一下吗?

Flink CDC里哪位有上亿数据量的oracle 同步到 hudi的例子,可以分享一下吗?大数据量一直没有数据同步,也不报错。flink-sql-connector-oracle-cdc-2.3.0.jar,OracleOracle Database 11g Enterprise Edition Release 11.2.0.4.0 - 64bit Production With the Pa....

问答 2024-03-05 来自:开发者社区

Flink CDC同步到hudi 可以直接读取hudi 的数据吗 例如用hive 或者spark?

Flink CDC同步到hudi 可以直接读取hudi 的数据吗 例如用hive 或者spark?

问答 2024-01-09 来自:开发者社区

各位flink cdc 同步进hudi的数据,可以用spark 改吗?

各位大哥flink cdc 同步进hudi的数据,可以用spark 改吗?

问答 2023-11-22 来自:开发者社区

Flink CDC同步到hudi的时候,现在一直没生成,yarn上也没报错有遇到过没?

Flink CDC同步到hudi的时候,merge_on_read会生成ro 和rt结尾的表,但是现在一直没生成,yarn上也没报错有遇到过没?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注