阿里云文档 2025-04-23

数据摄入YAML作业开发

实时计算Flink版基于Flink CDC,通过开发YAML作业的方式有效地实现了将数据从源端同步到目标端的数据摄入工作。本文将为您介绍数据摄入YAML作业开发的操作步骤。

阿里云文档 2025-02-08

数据摄入YAML作业快速入门

实时计算Flink版基于Flink CDC,通过开发YAML作业的方式有效地实现了将数据从源端同步到目标端的数据摄入工作。本文介绍如何快速构建一个YAML作业将MySQL库中的所有数据同步到StarRocks中。

阿里云文档 2025-01-21

Flink Hive SQL作业快速入门

实时计算Flink版支持使用Hive方言创建批处理作业,通过兼容Hive SQL语法增强与Hive互操作性,便于从现有Hive作业平滑迁移至实时计算管理控制台。

阿里云文档 2024-12-23

开发及部署基于Hologres连接器的 Flink DataStream作业

Hologres与Flink全托管高度兼容,多数情况下您可以使用Flink SQL的方式,声明Hologres的源表、维表及结果表,进而使用SQL表达数据的处理逻辑。但对于特殊业务场景,Flink SQL方式无法满足业务计算时,您需要使用DataStream的方式读写数据。本文以VVR-8.0.8-Flink-1.17版本为例,为您完整地展示如何调试和开发基于Hologres连接器的DataStr...

阿里云文档 2024-09-20

作业开发上线流程及规范

随着数据量的爆炸性增长和业务需求的日益复杂化,企业对实时数据处理能力的需求愈发迫切。Flink作为一种强大的流处理框架已经成为实时计算标准,其规范化的开发和运维流程对于企业提升数据处理效率、确保系统稳定性至关重要,旨在提升研发效率,保障项目顺利进行。实时计算Flink版基于Apache Flink构建了一站式开发运维管理平台,支持作业开发、数据调试、运行与监控、自动调优、智能诊断等全生命周期能力。...

文章 2024-06-15 来自:开发者社区

实时计算 Flink版产品使用问题之如何在本地运行和调试包含VVR DataStream连接器的作业

问题一:Flink的CTAS加slot数量 是不是不生效? Flink的CTAS加slot数量 是不是不生效? 参考答案: 加大job和task的CU,再试试 关于本问题的更多回答可点击进行查看: https://developer.aliyun.com/ask/612346 问题二:Fl...

实时计算 Flink版产品使用问题之如何在本地运行和调试包含VVR DataStream连接器的作业
问答 2024-06-09 来自:开发者社区

Flink Datastream作业TM日志中抛NullPointerException没有详...

Flink Datastream作业TM日志中抛NullPointerException没有详细错误栈

文章 2024-06-03 来自:开发者社区

Flink⼤状态作业调优实践指南:Datastream 作业篇

摘要:本文整理自俞航翔、陈婧敏、黄鹏程老师所撰写的大状态作业调优实践指南。由于内容丰富,本文分享Datastream 作业篇,主要分为以下四个部分: Flink 状态(State)简介 大状态作业导致的问题大状态作业诊断调优整体思路Flink Datastream 作业大状态导致反压的调优原理与方法 一、Fli...

Flink⼤状态作业调优实践指南:Datastream 作业篇
问答 2024-05-30 来自:开发者社区

Flink datastream作业怎么通过main函数传参

Flink datastream作业怎么通过main函数传参

文章 2023-08-28 来自:开发者社区

Flink DataStream API-概念、模式、作业流程和程序

前几篇介绍了Flink的入门、架构原理、安装等,相信你对Flink已经了解入门。接下来开始介绍Flink DataStream API内容,先介绍DataStream API基本概念和使用,然后介绍核心概念,最后再介绍经典案例和代码实现。本篇内容:Flink DataStream API的概念、模式、作业流程和程序。 1、基本概念 用于处理数据流的API称之为DataStream API,而...

Flink DataStream API-概念、模式、作业流程和程序

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注