阿里云文档 2024-11-19

通过DMS调度AnalyticDB MySQL Spark任务

使用常规的Spark开发编辑器或命令行等工具进行Spark作业开发时,仅支持单次调度Spark作业,且作业间无依赖关系和执行顺序。为解决以上痛点,您可以通过数据管理DMS的任务编排功能,周期性、有顺序地调度Spark作业。本文介绍如何使用DMS调度AnalyticDB MySQL Spark作业。

阿里云文档 2024-09-24

如何通过Airflow调度AnalyticDB for MySQL Spark作业

Airflow是比较流行的开源调度工具,可以实现各类工作负载的DAG编排与调度。您可以通过AnalyticDB for MySQL Spark Airflow Operator、Spark-Submit命令行工具来实现Airflow调度Spark任务。本文介绍如何通过Airflow调度AnalyticDB for MySQL Spark作业。

阿里云文档 2024-09-06

DataWorks调度Spark

DataWorks是基于MaxCompute作为计算和存储引擎的海量数据离线加工分析平台,用于工作流可视化开发和托管调度运维,支持按照时间和依赖关系的任务全面托管调度。您可以在DataWorks中,通过Shell节点或自定义节点调度和管理云原生数据仓库 AnalyticDB MySQL 版的Spark作业。

阿里云文档 2024-08-12

Azkaban调度Spark

Azkaban是一个批量工作流任务调度器,可以构建、执行和管理包含复杂依赖关系的工作流。您可以借助Spark-Submit命令行工具,在Azkaban Web界面调度云原生数据仓库 AnalyticDB MySQL 版的Spark作业。

阿里云文档 2024-08-05

DolphinScheduler调度Spark

DolphinScheduler是一个分布式易扩展的可视化DAG工作流任务调度开源系统,能高效地执行和管理大数据流程。您可以借助Spark-Submit命令行工具,在DolphinScheduler Web界面轻松创建、编辑、调度云原生数据仓库 AnalyticDB MySQL 版的Spark作业。

问答 2024-07-10 来自:开发者社区

云数据仓库ADB有没有airflow调度adb任务的相关文档我看官方的产品文档只有调度spark的

云数据仓库ADB有没有airflow调度adb任务的相关文档我看官方的产品文档只有调度spark的

文章 2024-06-20 来自:开发者社区

看看airflow怎样调度python写的spark任务吧

⭐️ Apache Airflow Apache Airflow 是一个开源的工作流自动化工具,它用于调度和管理复杂的数据工作流。Airflow 的原理基于有向无环图(DAG)的概念,它通过编写和组织任务的有向图来描述工作流程。 ...

看看airflow怎样调度python写的spark任务吧

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注