问答 2024-07-29 来自:开发者社区

有个问题请教下,我使用idea本地运行一个flink应用,这个可能是什么问题?

有个问题请教下,我使用idea本地运行一个flink应用,在控制台能看到打印的业务日值,但是当我把这个任务提交到flink集群之后,在flink web ui里面就没有打印的业务日志了,这个可能是什么问题?

文章 2024-05-17 来自:开发者社区

实时计算 Flink版产品使用合集之idea本地测试代码,要增大 Flink CDC 在本地 IDEA 测试环境中的内存大小如何解决

问题一:请问下Flink CDC:oracle-cdc有没有类似于mysql里面的 配置呢? 请问下Flink CDC:oracle-cdc有没有类似于mysql里面的 scanNewlyAddedTableEnabled(true)的配置呢? 参考回答: 没有,oracle cdc 还不支持,技术上没问题,还没来得及排期 关于本问题...

实时计算 Flink版产品使用合集之idea本地测试代码,要增大 Flink CDC 在本地 IDEA 测试环境中的内存大小如何解决
问答 2024-04-14 来自:开发者社区

在IDEA 2023 中执行flink sql报错,请问怎么配置内存?

在IDEA 2023 中执行flink sql报错,请问怎么配置内存?## java.io.IOException: Insufficient number of network buffers: required 2, but only 0 available. The total number of network buffers is currently set to 22773 of 3....

问答 2024-03-13 来自:开发者社区

请问下我在idea里面跑没问题,放到flink里面run报上面这个错误是什么问题?

Caused by: java.sql.SQLException: No suitable driver found for jdbc:oracle:thin:@192.168.29.113:1521/ORCL 请问下我在idea里面跑没问题,放到flink里面run报上面这个错误是什么问题?

问答 2023-06-18 来自:开发者社区

大佬们知道这个报错 如何解决吗?测试 我只是用IDEA把Flink cdc作为一个监听binlog的

问题1:大佬们知道这个报错 如何解决吗?com.ververica.cdc.connectors.mysql.debezium.task.context.exception.schemaoutofsyncexception: Internal schema representation is probably out of sync with real database schema. The ....

问答 2023-06-18 来自:开发者社区

有大佬知道为什么CDC程序IDEA中开发了之后打包到Flink集群中就捕获不到数据呢?在IDEA中就

有大佬知道为什么CDC程序IDEA中开发了之后打包到Flink集群中就捕获不到数据呢?在IDEA中就可以?集群无论是存量还是增量都捕获不到 约5分钟,没有报错。在IDEA中秒获取数据, 集群的日志自提交后就没有变动了

问答 2023-04-28 来自:开发者社区

idea 本地flink ui打不开是什么问题啊?

idea 本地flink ui打不开是什么问题啊?

问答 2023-04-19 来自:开发者社区

想问下idea跑Flink 任务时,抛异常一般在哪里看的,我这边应该是报错了,但是控制台和日志文件都

想问下idea跑Flink 任务时,抛异常一般在哪里看的,我这边应该是报错了,但是控制台和日志文件都没有显示异常。现在只能通过注释代码,来判断那段代码出错了,怎么办?

问答 2023-03-21 来自:开发者社区

有人遇到过这个问题吗,在IDEA上运行没问题,打成jar包在flink集群上报错,是为什么呢?

有人遇到过这个问题吗,在IDEA上运行没问题,打成jar包在flink集群上报错,是为什么呢?

问答 2023-03-08 来自:开发者社区

请问我通过idea写flink sql 不可以同时写多个插入语句吗?

请问我通过idea写flink sql 不可以同时写多个插入语句吗?我这里是sink 多个地方,分别是Kafka和hudi

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注