阿里云文档 2026-03-31

调用DeleteCustomConnector删除自定义连接器-实时计算 Flink版-阿里云

删除已经注册的自定义连接器。

阿里云文档 2026-03-31

使用RegisterCustomConnector在项目空间注册自定义连接器-实时计算 Flink版-阿里云

在项目空间下注册自定义连接器,注册的自定义连接器可以在SQL中使用。

阿里云文档 2026-03-31

使用ListCustomConnectors获取自定义连接器列表-实时计算 Flink版-阿里云

获取已注册的自定义连接器的列表信息。

阿里云文档 2024-11-18

如何配置Flink自定义指标采集

当您的Prometheus实例需要监控Flink自定义指标数据时,您可以通过自定义指标配置功能来实现这一需求。将指标加入到自定义指标配置后,它们将被探针(Agent)侧识别并采集。默认支持两种配置方式:指标全名称配置,指标前缀配置,您还可以对两种方式进行组合配置。

阿里云文档 2024-11-18

如何配置Flink自定义指标采集

当您的Prometheus实例需要监控Flink自定义指标数据时,您可以通过自定义指标配置功能来实现这一需求。将指标加入到自定义指标配置后,它们将被探针(Agent)侧识别并采集。默认支持两种配置方式:指标全名称配置,指标前缀配置,您还可以对两种方式进行组合配置。

文章 2024-05-23 来自:开发者社区

实时计算 Flink版产品使用合集之实现自定义 Flink Source和控制数据的下发如何解决

问题一:请教个Flink问题:如果从历史某个时间点进行重新消费,是不是只能将kafka设置为单分区? 请教个Flink问题:如果从历史某个时间点进行重新消费,要保证数据全局有序,是不是只能将kafka设置为单分区? 参考回答: 在Flink从历史某个时间点进行重新消费的情况下,要保证数据全局有序,并不一定要将Kafka设置为单分区。尽管在某些情况下,将...

文章 2023-12-16 来自:开发者社区

要实现自定义 Flink Source

要实现自定义 Flink Source,可以通过继承 RichSourceFunction 类来实现。在 RichSourceFunction 中,可以重写 run(SourceContext<T> ctx) 方法来控制数据的下发。 具体来说,可以在 run(SourceContext<T> ctx) 方法中使用一个循环来处理数据...

问答 2023-12-03 来自:开发者社区

请教下,自定义 flink source,我想整个流处理完一批数据,要怎么控制数据的下发?

请教下,自定义 flink source,我想整个流处理完一批数据,source在下发下一批数据,要怎么控制数据的下发?

问答 2023-09-13 来自:开发者社区

请教下,我自定义了一个 UDF,Flink这个是为什么? 有办法优化么?

SELECT JSON_VALUE(evt, '$._from') AS _from, JSON_VALUE(evt, '$._to') AS _to,FROM ( SELECT udf_foo (paramA, paramB) AS evt FROM ( VALUES ('AAAA', 'BBBB') ) AS t...

问答 2023-07-13 来自:开发者社区

大家有写过自定义catalog么?感觉flink在批这块不是很友好

大家有写过自定义catalog么?感觉flink在批这块不是很友好

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注