阿里云文档 2025-11-04

在DataWorks使用Python2代码编写MaxCompute任务,并周期性调度运行。

DataWorks提供PyODPS 2节点类型,您可以在DataWorks上通过PyODPS语法进行PyODPS任务开发,PyODPS集成了MaxCompute的Python SDK。支持您在DataWorks的PyODPS 2节点上直接编辑Python代码,操作MaxCompute。

阿里云文档 2025-11-04

在DataWorks使用Python3代码编写MaxCompute任务,并周期性调度运行。

DataWorks为您提供PyODPS 3节点,您可以在该节点中直接使用Python代码编写MaxCompute作业,并进行作业的周期性调度。本文为您介绍如何通过DataWorks实现Python任务的配置与调度。

阿里云文档 2025-06-10

Shell类型节点运行Python脚本

DataWorks的Shell类型节点支持运行Python脚本。本文将为您介绍如何使用通用Shell节点或EMR Shell节点运行Python 2或Python 3脚本。

阿里云文档 2024-12-19

如何在DataWorks上调用Python的API运行Spark作业。

PySpark可直接调用Python的API运行Spark作业,PySpark作业需在特定Python环境中运行。EMR默认支持使用Python,若EMR支持的Python版本无法运行PySpark作业,则您可参考本实践配置可用的Python环境并在DataWorks上运行PySpark作业。

问答 2024-08-05 来自:开发者社区

dataworks能通过python或java调用任务嘛?

dataworks能通过python或java调用任务嘛?

问答 2024-07-29 来自:开发者社区

DataWorks用python3 节点跑任务 ,source节点是 mysql 怎么办?

DataWorks用python3 节点跑任务 ,source节点是 mysql ,输出到 holo 里面 就执行不了?

问答 2024-07-29 来自:开发者社区

DataWorks中的python 任务都是这样跑的吧?

DataWorks中的python 任务都是这样跑的吧,用mc 的python节点,我是这样跑的,就报这种问题,mc 说是只能跑 mc 的任务,其它计算脚本 不能跑?

问答 2024-07-29 来自:开发者社区

DataWorks支持调度python3 任务吗?

DataWorks支持调度python3 任务吗?

问答 2024-07-09 来自:开发者社区

dataworks用python写odps spark任务有任何办法引用到额外的jar包吗?

odps spark任务只有使用java时才可以选择jar包资源,python时只能选择python或者archives资源。我想使用graphframes,该包不只需要python还需要jar包。请问该如何把jar包在提交python odps spark任务的时候加进去呢?

文章 2024-06-09 来自:开发者社区

DataWorks产品使用合集之有没有办法用python获取到那几个任务的实例再调度

问题一:DataWorks分支节点下游有两个节点,A节点满足条件,B节点下游的实例会空跑还是正常跑? DataWorks分支节点下游有两个节点,A节点满足条件,B不满足条件,那么B节点为空跑,B节点下游的实例会空跑还是正常跑? 参考回答: 默认会空跑 如果有共同的下游 建议使用归并节点 关于本问题的更多回答可点击原文查看:https:...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

DataWorks

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。作为阿里巴巴数据中台的建设者,DataWorks从2009年起不断沉淀阿里巴巴大数据建设方法论,同时与数万名政务/金融/零售/互联网/能源/制造等客户携手,助力产业数字化升级。

+关注