阿里云文档 2025-11-04

在DataWorks使用Python2代码编写MaxCompute任务,并周期性调度运行。

DataWorks提供PyODPS 2节点类型,您可以在DataWorks上通过PyODPS语法进行PyODPS任务开发,PyODPS集成了MaxCompute的Python SDK。支持您在DataWorks的PyODPS 2节点上直接编辑Python代码,操作MaxCompute。

阿里云文档 2025-11-04

在DataWorks使用Python3代码编写MaxCompute任务,并周期性调度运行。

DataWorks为您提供PyODPS 3节点,您可以在该节点中直接使用Python代码编写MaxCompute作业,并进行作业的周期性调度。本文为您介绍如何通过DataWorks实现Python任务的配置与调度。

阿里云文档 2025-06-10

Shell类型节点运行Python脚本

DataWorks的Shell类型节点支持运行Python脚本。本文将为您介绍如何使用通用Shell节点或EMR Shell节点运行Python 2或Python 3脚本。

阿里云文档 2025-03-10

Python读取MaxCompute表无法获取UDF信息

问题描述Python读取MaxCompute表无法获取UDF信息,并提示以下错误。FAILED:ODPS-0130071:[1,8] Semantic analysis exception - failed to get Udf info form maxpt.py,error output is ...

阿里云文档 2024-12-19

如何在DataWorks上调用Python的API运行Spark作业。

PySpark可直接调用Python的API运行Spark作业,PySpark作业需在特定Python环境中运行。EMR默认支持使用Python,若EMR支持的Python版本无法运行PySpark作业,则您可参考本实践配置可用的Python环境并在DataWorks上运行PySpark作业。

文章 2024-06-30 来自:开发者社区

DataWorks产品使用合集之在依赖普通的Python脚本和开源第三方包的场景下,如何使用DataWorks PyODPS节点调用第三方包

问题一:dataworks的同步任务可以支持跨库读取吗? dataworks的同步任务可以支持跨库读取吗? 参考回答: 如果pg数据源配置的用户名或者密码有访问其他库表的权限 那可以尝试用脚本模式配置试一下 关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/600676 ...

问答 2024-01-15 来自:开发者社区

dataworks中sql的自定义函数(python脚本,调用了第三方开源库)报错 是什么原因?

dataworks中sql的自定义函数(python脚本,调用了第三方开源库)报错 是什么原因?

问答 2024-01-15 来自:开发者社区

dataworks的odpspy 中开发的python脚本,需要引用其他的开源三方包,怎么引用呢?

dataworks的odpspy 中开发的python脚本,需要引用其他的开源三方包,我是通过dataworks资源从本地上传的,怎么引用呢,查了半天,云文档没找到方法?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

DataWorks

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。作为阿里巴巴数据中台的建设者,DataWorks从2009年起不断沉淀阿里巴巴大数据建设方法论,同时与数万名政务/金融/零售/互联网/能源/制造等客户携手,助力产业数字化升级。

+关注