阿里云文档 2025-11-04

在DataWorks使用Python2代码编写MaxCompute任务,并周期性调度运行。

DataWorks提供PyODPS 2节点类型,您可以在DataWorks上通过PyODPS语法进行PyODPS任务开发,PyODPS集成了MaxCompute的Python SDK。支持您在DataWorks的PyODPS 2节点上直接编辑Python代码,操作MaxCompute。

阿里云文档 2025-11-04

在DataWorks使用Python3代码编写MaxCompute任务,并周期性调度运行。

DataWorks为您提供PyODPS 3节点,您可以在该节点中直接使用Python代码编写MaxCompute作业,并进行作业的周期性调度。本文为您介绍如何通过DataWorks实现Python任务的配置与调度。

阿里云文档 2025-06-10

Shell类型节点运行Python脚本

DataWorks的Shell类型节点支持运行Python脚本。本文将为您介绍如何使用通用Shell节点或EMR Shell节点运行Python 2或Python 3脚本。

阿里云文档 2025-03-10

Python读取MaxCompute表无法获取UDF信息

问题描述Python读取MaxCompute表无法获取UDF信息,并提示以下错误。FAILED:ODPS-0130071:[1,8] Semantic analysis exception - failed to get Udf info form maxpt.py,error output is ...

阿里云文档 2024-12-19

如何在DataWorks上调用Python的API运行Spark作业。

PySpark可直接调用Python的API运行Spark作业,PySpark作业需在特定Python环境中运行。EMR默认支持使用Python,若EMR支持的Python版本无法运行PySpark作业,则您可参考本实践配置可用的Python环境并在DataWorks上运行PySpark作业。

问答 2024-08-13 来自:开发者社区

DataWorks 中udf python 依赖第三方模块,打包上传了,报gcc 版本咋办?

DataWorks 中udf python 依赖第三方模块,打包上传了,报gcc 版本咋办?importerror: /usr/ali/alicpp/built/gcc-9.2.1-cxx98abi/gcc-9.2.1/lib64/libstdc++.so.6: version `GLIBCXX_3.4.29' not found (required by work/OpenCC-1.1.8-c....

问答 2024-05-05 来自:开发者社区

DataWorks中UDF python 调用的函数里面包含sklearn 包,怎么解决?

DataWorks中UDF python 调用的函数里面包含sklearn 包,但是运行出错,怎么解决?

问答 2023-07-16 来自:开发者社区

dataworks udf中使用第三方Python库Crypto.Cipher是什么?

dataworks udf中使用第三方Python库Crypto.Cipher是什么?

问答 2022-12-09 来自:开发者社区

Dataworks udf 如何使用python 3,在哪里设置?

Dataworks udf 如何使用python 3,在哪里设置?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

DataWorks

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。作为阿里巴巴数据中台的建设者,DataWorks从2009年起不断沉淀阿里巴巴大数据建设方法论,同时与数万名政务/金融/零售/互联网/能源/制造等客户携手,助力产业数字化升级。

+关注