阿里云文档 2024-12-19

如何在DataWorks上调用Python的API运行Spark作业。

PySpark可直接调用Python的API运行Spark作业,PySpark作业需在特定Python环境中运行。EMR默认支持使用Python,若EMR支持的Python版本无法运行PySpark作业,则您可参考本实践配置可用的Python环境并在DataWorks上运行PySpark作业。

阿里云文档 2024-11-14

Shell类型节点运行Python脚本

DataWorks的Shell类型节点支持运行Python脚本。本文将为您介绍如何使用通用Shell节点或EMR Shell节点运行Python 2或Python 3脚本。

阿里云文档 2023-09-21

什么是函数Python运行时的上下文和使用示例

本文介绍在函数计算中使用Python运行时开发代码时,所涉及的Context(上下文)的相关概念和使用示例。

文章 2023-05-19 来自:开发者社区

一日一技:在Python 的线程中运行协程

摄影:产品经理下厨:kingname在一篇文章理解Python异步编程的基本原理这篇文章中,我们讲到,如果在异步代码里面又包含了一段非常耗时的同步代码,异步代码就会被卡住。那么有没有办法让同步代码与异步代码看起来也是同时运行的呢?方法就是使用事件循环的.run_in_executor()方法。我们来看一下 Python 官方文档[1]中的说法:那么怎么使用呢?还是以非常耗时的递归方式计算斐波那契....

一日一技:在Python 的线程中运行协程
阿里云文档 2023-04-14

如何在JavaScript和Python双引擎环境下运行程序

更正文档案例简介Python轻应用引擎py_engine(Python轻应用引擎)以MicroPython为基础打造而成,基于py_engine可以快速实现IoT场景连云、控端、AI等最常见功能。快速上手文档和编程接口请参考Python轻应用快速上手。Python轻应用快速上手连云:支持基于link...

文章 2023-02-19 来自:开发者社区

Python 异步: 同时运行多个协程(10)

让我们仔细看看。1. 什么是 Asyncio gather()asyncio.gather() 模块函数允许调用者将多个可等待对象组合在一起。分组后,可等待对象可以并发执行、等待和取消。它是一个有用的实用函数,可用于分组和执行多个协程或多个任务。... # run a collection of awaitables results = await asyncio.gather(coro1(),....

文章 2023-02-19 来自:开发者社区

Python异步: 定义、创建和运行协程(5)

1. 如何定义协程协程可以通过“async def”表达式定义。这是用于定义子例程的“def”表达式的扩展。它定义了一个可以创建的协程,并返回一个协程对象。# define a coroutine async def custom_coro(): # ...用“async def”表达式定义的协程被称为“协程函数”。然后协程可以在其中使用特定于协程的表达式,例如 await、async ...

阿里云文档 2021-09-09

如何运行Python3Kernel任务

在E-MapReduce的JupyterHub中,您可以直接运行Python任务,也可以通过Python3 Kernel中的魔术命令PySpark和SQL运行任务。本文通过示例为您介绍如何运行Python3 Kernel任务,以及Python3 Kernel中的魔术命令PySpark和SQL中的参数。

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

Python学习站

Python学习资料大全,包含Python编程学习、实战案例分享、开发者必知词条等内容。

+关注
相关镜像