阿里云文档 2025-11-04

在DataWorks使用Python2代码编写MaxCompute任务,并周期性调度运行。

DataWorks提供PyODPS 2节点类型,您可以在DataWorks上通过PyODPS语法进行PyODPS任务开发,PyODPS集成了MaxCompute的Python SDK。支持您在DataWorks的PyODPS 2节点上直接编辑Python代码,操作MaxCompute。

阿里云文档 2025-11-04

在DataWorks使用Python3代码编写MaxCompute任务,并周期性调度运行。

DataWorks为您提供PyODPS 3节点,您可以在该节点中直接使用Python代码编写MaxCompute作业,并进行作业的周期性调度。本文为您介绍如何通过DataWorks实现Python任务的配置与调度。

阿里云文档 2025-06-10

Shell类型节点运行Python脚本

DataWorks的Shell类型节点支持运行Python脚本。本文将为您介绍如何使用通用Shell节点或EMR Shell节点运行Python 2或Python 3脚本。

阿里云文档 2025-03-10

Python读取MaxCompute表无法获取UDF信息

问题描述Python读取MaxCompute表无法获取UDF信息,并提示以下错误。FAILED:ODPS-0130071:[1,8] Semantic analysis exception - failed to get Udf info form maxpt.py,error output is ...

阿里云文档 2024-12-19

如何在DataWorks上调用Python的API运行Spark作业。

PySpark可直接调用Python的API运行Spark作业,PySpark作业需在特定Python环境中运行。EMR默认支持使用Python,若EMR支持的Python版本无法运行PySpark作业,则您可参考本实践配置可用的Python环境并在DataWorks上运行PySpark作业。

问答 2024-01-15 来自:开发者社区

dataworks有没有python读取oss文件的实践?

dataworks有没有python读取oss文件的实践?

文章 2023-12-02 来自:开发者社区

在DataWorks中,可以使用Python SDK操作阿里云OSS存储服

在DataWorks中,可以使用Python SDK操作阿里云OSS存储服务。具体的操作步骤如下: 首先,你需要在阿里云控制台中创建一个OSS存储空间,并获取到你的AccessKeyId、AccessKeySecret和BucketName。 然后,你可以使用Python的OSS SDK来操作OSS存储服务。首先,...

问答 2023-06-17 来自:开发者社区

请问下,在dataworks 中能够使用python 读取oss 文件吗?

请问下,在dataworks 中能够使用python 读取oss 文件吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

DataWorks

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。作为阿里巴巴数据中台的建设者,DataWorks从2009年起不断沉淀阿里巴巴大数据建设方法论,同时与数万名政务/金融/零售/互联网/能源/制造等客户携手,助力产业数字化升级。

+关注