阿里云文档 2025-07-01

创建PyODPS 2节点任务

DataWorks提供了PyODPS 2节点类型,允许您使用PyODPS语法在DataWorks平台上开发PyODPS任务。PyODPS集成了MaxCompute的Python SDK,使您能够在PyODPS 2节点上直接编写和编辑Python代码来操作MaxCompute。

阿里云文档 2025-06-26

MySQL到MaxCompute的Serverless整库实时任务

本文介绍MySQL到MaxCompute的Serverless整库实时任务。

阿里云文档 2025-06-04

同工作空间批量发布任务

DataWorks支持将需要发布的对象(节点、函数、资源、组件等)批量添加至发布包,统一发布。本文为您介绍同工作空间发布场景下如何创建及发布待发布包。

阿里云文档 2025-03-31

查看任务运行历史记录

DataWorks的运行历史面板展示您最近三天在数据开发界面的任务执行记录。

阿里云文档 2025-03-14

新版Data Studio任务发布

本文为您介绍如何通过发布流程将任务的新增、更新、删除操作发布至生产环境。

问答 2024-08-21 来自:开发者社区

DataWorks数据集成的实时同步任务,如果源数据库的数据删掉了,mc的目标表数据的删除策略?

DataWorks数据集成的实时同步任务,如果源数据库的数据删掉了,mc的目标表数据的删除策略是咋样的,为什么我现在看到的是没有删除?

问答 2024-08-21 来自:开发者社区

DataWorks两个任务都是向表b 输出数据?

DataWorks两个任务都是向表b 输出数据。第一个的任务名,输出名,输出表名为:b , b , b第二个的任务名,输出名,输出表名为:b_xx , b_xx , b然后第二个任务的sql中,--@exclude_output=b这样嘛?

问答 2024-08-13 来自:开发者社区

DataWorks需要一个批量手段,全部同步任务通过openai 获取结果数据,再进行分析?

DataWorks需要一个批量手段,全部同步任务通过openai 获取结果数据,再进行分析?

问答 2024-08-13 来自:开发者社区

在Dataworks中有个pyodps任务每天在正常跑数据,现在想克隆一份文件代码按小时跑?

在Dataworks中有个pyodps任务每天在正常跑数据,现在想克隆一份文件代码按小时跑。克隆之后的任务与原来的除了调度的时间不一样,其他都一样,资源组用的也是同一个,但是会报错:看资源组,报错中缺少的包也是已经安装了的。原来的任务用的也是同一个资源组,可以正常运行,但是克隆之后的任务就跑不了。

问答 2024-08-05 来自:开发者社区

DataWorks任务运行过程中遇到源端表某字段数据过长在不增大脏数据限制条数的前提下,怎么解决呢?

DataWorks任务运行过程中遇到源端表某字段数据过长(同步到dataworks为string类型,大小超过8M),导致同步任务报错,在不增大脏数据限制条数的前提下,怎么解决呢?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

大数据开发治理平台 DataWorks任务相关内容

大数据开发治理平台 DataWorks更多任务相关

产品推荐

DataWorks

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。作为阿里巴巴数据中台的建设者,DataWorks从2009年起不断沉淀阿里巴巴大数据建设方法论,同时与数万名政务/金融/零售/互联网/能源/制造等客户携手,助力产业数字化升级。

+关注