阿里云文档 2026-04-09

设置DataWorks中EMR任务的全局Spark参数

在DataWorks中,您可按照工作空间粒度指定各模块使用的SPARK参数,后续各模块将默认使用对应SPARK参数执行任务。您可参考Spark官方文档自定义全局Spark参数,并配置全局Spark参数的优先级是否高于指定模块内(数据开发、数据分析、运维中心)的SPARK参数。本文为您介绍如何设置全局Spark参数。

阿里云文档 2026-01-28

Spark Conf自定义参数列表

Serverless Spark支持多个内置特有参数,您可以查阅这些参数的名称、描述及其使用场景,以便灵活配置任务运行环境并优化任务执行。

阿里云文档 2025-12-17

Spark有哪些配置参数, 如何配置

云原生数据仓库 AnalyticDB MySQL 版(AnalyticDB for MySQL)Spark配置参数跟开源Spark中的配置参数基本一致。本文介绍AnalyticDB for MySQL与开源Spark用法不一致的配置参数。

阿里云文档 2025-03-26

连接SparkSQL报数据源连通性异常,请检查参数是否正确错误信息AE0610260030:Accessing illegal hostname or ip

问题描述Quick BI的数据源连接Spark SQL数据库数据源时报错:数据源连通性异常,请检查参数是否正确错误信息:"AE0610260030:Accessing illegal hostname or ip."。数据源连通性异常,请检查参数是否正确错误信息:"AE0610260030:Acce...

文章 2022-02-17 来自:开发者社区

spark submit参数及调优

spark submit参数介绍你可以通过spark-submit --help或者spark-shell --help来查看这些参数。使用格式: ./bin/spark-submit \ --class \ --master \ --deploy-mode \ --conf = \ ... # other options \ [application-arguments] ...

文章 2022-02-16 来自:开发者社区

sc.textFile("file:///home/spark/data.txt") Input path does not exist解决方法——submit 加参数 --master local 即可解决

use this val data = sc.textFile("/home/spark/data.txt") this should work and set master as local. Input path does not exist解决方法 spark-submit --master local 即可解决!   参考:https://stackoverf...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注