阿里云文档 2025-10-24

本文介绍了使用VS Code、通义灵码和spark-submit工具自动生成PySpark任务代码并提交至EMR Serverless Spark的全流程方法,显著简化了开发与执行复杂度。

通过VS Code、通义灵码以及Serverless Spark提供的spark-submit工具,用户能够快速生成Spark任务代码并将其提交至Serverless Spark进行执行。本文将为您详细介绍如何使用上述工具提交Serverless Spark任务。

阿里云文档 2025-10-16

Serverless Spark 提供多种内置函数,包括兼容开源函数和特有函数,用于高效处理数据,如 PARQUET_SCHEMA、PARQUET_METADATA、URL_DECODE 等,支持复杂数据操作与解析。

Serverless Spark 内置了多种函数,能够满足大部分数据处理需求。本文将为您介绍 Serverless Spark 内置提供的函数及其使用说明。

阿里云文档 2025-09-19

密文管理通过加密存储和动态引用敏感信息,提升云环境中数据安全与维护效率。

在数据开发与任务执行过程中,明文存储AccessKey或密码等信息容易引发安全风险。通过密文管理功能,您可以将敏感信息进行加密存储,并在数据开发及会话配置中进行动态引用,从而避免代码泄露风险,提升敏感信息的维护效率。

阿里云文档 2025-09-19

阿里云EMR Serverless Spark Notebook集成DuckDB,支持免密访问OSS/OSS-HDFS并高效操作多种数据格式。

阿里云 EMR Serverless Spark 的 Notebook 会话中引入了 DuckDB 的 Python 库,除了支持 DuckDB 开源版本所具备的所有功能外,还额外提供了免密访问 OSS/OSS-HDFS 的能力,从而能够直接读取 OSS 路径下的文件进行操作。

问答 2024-05-28 来自:开发者社区

大数据计算MaxCompute Spark节点,是不是不可以跨数据库读写?

大数据计算MaxCompute Spark节点,是不是不可以跨数据库读写?

问答 2023-12-19 来自:开发者社区

大数据计算MaxCompute spark节点报这种错误是环境原因吗?

大数据计算MaxCompute spark节点报这种错误是环境原因吗?

问答 2023-08-13 来自:开发者社区

大数据计算MaxCompute spark 节点 no space left on devic?

大数据计算MaxCompute spark 节点 no space left on device,磁盘空间调整到了100g,其实没有什么数据量,还在测试阶段,线程数只有1,我能否设置tmp临时文件存档位置?如何设置?aws是可以修改临时文件位置的,不知道阿里云是否可以?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

云原生大数据计算服务 MaxComputespark相关内容

云原生大数据计算服务 MaxCompute更多spark相关

云原生大数据计算服务 MaxCompute您可能感兴趣

产品推荐

阿里巴巴大数据计算

阿里大数据官方技术圈

+关注