阿里云文档 2025-11-04

在DataWorks使用Python2代码编写MaxCompute任务,并周期性调度运行。

DataWorks提供PyODPS 2节点类型,您可以在DataWorks上通过PyODPS语法进行PyODPS任务开发,PyODPS集成了MaxCompute的Python SDK。支持您在DataWorks的PyODPS 2节点上直接编辑Python代码,操作MaxCompute。

阿里云文档 2025-11-04

在DataWorks使用Python3代码编写MaxCompute任务,并周期性调度运行。

DataWorks为您提供PyODPS 3节点,您可以在该节点中直接使用Python代码编写MaxCompute作业,并进行作业的周期性调度。本文为您介绍如何通过DataWorks实现Python任务的配置与调度。

阿里云文档 2025-06-10

Shell类型节点运行Python脚本

DataWorks的Shell类型节点支持运行Python脚本。本文将为您介绍如何使用通用Shell节点或EMR Shell节点运行Python 2或Python 3脚本。

阿里云文档 2025-03-10

Python读取MaxCompute表无法获取UDF信息

问题描述Python读取MaxCompute表无法获取UDF信息,并提示以下错误。FAILED:ODPS-0130071:[1,8] Semantic analysis exception - failed to get Udf info form maxpt.py,error output is ...

阿里云文档 2024-12-19

如何在DataWorks上调用Python的API运行Spark作业。

PySpark可直接调用Python的API运行Spark作业,PySpark作业需在特定Python环境中运行。EMR默认支持使用Python,若EMR支持的Python版本无法运行PySpark作业,则您可参考本实践配置可用的Python环境并在DataWorks上运行PySpark作业。

问答 2024-07-09 来自:开发者社区

dataworks用python写odps spark任务有任何办法引用到额外的jar包吗?

odps spark任务只有使用java时才可以选择jar包资源,python时只能选择python或者archives资源。我想使用graphframes,该包不只需要python还需要jar包。请问该如何把jar包在提交python odps spark任务的时候加进去呢?

问答 2024-03-19 来自:开发者社区

DataWorks中python本地如何调用odps空间中的udf函数?

DataWorks中python本地如何调用odps空间中的udf函数?

问答 2023-11-30 来自:开发者社区

DataWorks使用python3 删除ODPS数据表,行数据?

DataWorks使用python3 删除ODPS数据表,行数据?

问答 2023-05-01 来自:开发者社区

DataWorks中python任务报错,是什么原因? odps.errors.ODPSError

DataWorks中python任务报错,是什么原因? odps.errors.ODPSError: FlowExceeded: RequestId: 202304280244410edcd90b0805b50d Your flow quota is exceeded.之前没有问题。

问答 2022-06-13 来自:开发者社区

用dataworks平台python3,怎么把数据装到ODPS?

用dataworks平台python3,怎么把数据装到ODPS?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

DataWorks

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。作为阿里巴巴数据中台的建设者,DataWorks从2009年起不断沉淀阿里巴巴大数据建设方法论,同时与数万名政务/金融/零售/互联网/能源/制造等客户携手,助力产业数字化升级。

+关注