阿里云文档 2025-07-17

创建PyODPS 2节点任务

DataWorks提供了PyODPS 2节点类型,允许您使用PyODPS语法在DataWorks平台上开发PyODPS任务。PyODPS集成了MaxCompute的Python SDK,使您能够在PyODPS 2节点上直接编写和编辑Python代码来操作MaxCompute。

阿里云文档 2025-06-26

MySQL到MaxCompute的Serverless整库实时任务

本文介绍MySQL到MaxCompute的Serverless整库实时任务。

阿里云文档 2025-06-04

同工作空间批量发布任务

DataWorks支持将需要发布的对象(节点、函数、资源、组件等)批量添加至发布包,统一发布。本文为您介绍同工作空间发布场景下如何创建及发布待发布包。

阿里云文档 2025-03-31

查看任务运行历史记录

DataWorks的运行历史面板展示您最近三天在数据开发界面的任务执行记录。

阿里云文档 2025-03-14

新版Data Studio任务发布

本文为您介绍如何通过发布流程将任务的新增、更新、删除操作发布至生产环境。

文章 2024-09-18 来自:开发者社区

dataworks节点任务

DataWorks(又称为大数据开发套件或DatalDE)是阿里云提供的一款用于数据集成、数据处理、数据分析等操作的一站式开发工具。在DataWorks中,用户可以创建数据处理流程,并通过“节点”来表示这些流程中的各个步骤或任务。每个节点通常代表一个具体的操作,比如数据抽取、转换、加载(ETL)、脚...

问答 2024-08-25 来自:开发者社区

DataWorks中check节点的任务会一直占用调度并行度吗?

DataWorks中check节点的任务会一直占用调度并行度吗,比如调度资源组的并行度是20,然后我设置了21个check节点,都是凌晨1点开始,没5分钟检查一次,会导致调度资源组的并行度被打满,导致其它任务如hive 无法执行的情况吗?

问答 2024-08-13 来自:开发者社区

DataWorks这边创建了一个:FTP Check节点任务?

DataWorks这边创建了一个:FTP Check节点任务;任务执行一直报错: sftp file not exist, Algorithm negotiation fail 我这边检查配置,sftp地址也没问题,我check的文件也都有;这个报错,还能怎么排查下呢?

问答 2024-07-29 来自:开发者社区

DataWorks用python3 节点跑任务 ,source节点是 mysql 怎么办?

DataWorks用python3 节点跑任务 ,source节点是 mysql ,输出到 holo 里面 就执行不了?

文章 2024-07-18 来自:开发者社区

DataWorks产品使用合集之触发了一个具有环状依赖的节点,导致任务无法正常终止,该怎么解决

问题一:dataworks标准模式开发环境与生产环境的切换? dataworks标准模式开发环境与生产环境的切换? 参考回答: 在DataWorks标准模式下,开发环境与生产环境的切换需要经过一系列步骤。首先,您需要在项目中选择“工作空间管理”菜单,进入工作空间管理页面,并单击“新建环境”按钮以创建一个新的生产环境。接着,在新创建的生产环境中,需要配置...

DataWorks产品使用合集之触发了一个具有环状依赖的节点,导致任务无法正常终止,该怎么解决

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

大数据开发治理平台 DataWorks任务相关内容

大数据开发治理平台 DataWorks更多任务相关

产品推荐

DataWorks

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。作为阿里巴巴数据中台的建设者,DataWorks从2009年起不断沉淀阿里巴巴大数据建设方法论,同时与数万名政务/金融/零售/互联网/能源/制造等客户携手,助力产业数字化升级。

+关注