阿里云文档 2025-09-16

如何使用新版Flink Connector将数据写入MaxCompute,有哪些参数

MaxCompute提供了新版Flink Connector插件,支持将Flink数据写入至MaxCompute的普通表和Delta Table类型表,以提高Flink数据写入MaxCompute的便捷性。本文介绍新版Flink Connector写入MaxCompute的能力支持情况与主要操作流程。

阿里云文档 2025-09-01

Table/SQL & DataStream JAR作业迁移

本文为您介绍如何将开源自建Flink集群的JAR作业迁移至阿里云实时计算Flink版。

阿里云文档 2025-03-28

Flink CDC写入MaxCompute

MaxCompute为您提供对接Flink CDC的新版插件Connector连接器。您可以通过对接Flink CDC,将数据源(例如MySQL)数据实时同步至MaxCompute的目标表(普通表或Delta表)。本文为您介绍MaxCompute新版插件的能力支持情况与主要操作流程。

问答 2021-12-06 来自:开发者社区

[flink-1.10.2] 异步IO结果DataStream 该如何注册为table??

Flink版本:1.10.2 使用RichAsyncFunction 异步IO 操作,结果DataStream 不能注册为table。 本地测试的结果是一直重复输出数据。 请问一下DataStream 处理之后,怎么才能注册为 Table。 代码如下: // 异步redis处理 RedisAsyncFunction asyncFunction = new RedisAsyncFun...

问答 2018-12-11 来自:开发者社区

flink解析复杂protobuf,注册成table遇到问题

目标:kafka protobuf--》row--》table--》sql--》hdfs。问题:protobuf是嵌套结构,转成row时,制定type出现问题。第一步:自定义反序列化方式,将protobuf转成row第二步:for循环放入row第三步:指定字段name和type时不生效因为protobuf有嵌套,所以此处用Types.POJO。这个用法是否问题?

问答 2018-10-18 来自:开发者社区

请教下,Flink里面把流注册为表: tableEnv.registerDataStream("mytable", mystream ....) 这里的流 mystream 貌似必须是append only流,不能是retraction流。这是为什么?如果是retraction流,报错Table is not an append-only table. Use the toRetractStream() in order to handle add and retract messages.

转自钉钉群21789141:请教下,Flink里面把流注册为表: tableEnv.registerDataStream("mytable", mystream ....)这里的流 mystream 貌似必须是append only流,不能是retraction流。这是为什么?如果是retraction流,报错Table is not an append-only table. Use the ....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注