阿里云文档 2025-04-14

通过spark-submit提交任务

本文以ECS连接EMR Serverless Spark为例,介绍如何通过EMR Serverless spark-submit命令行工具进行Spark任务开发。

阿里云文档 2025-04-10

提交PySpark流任务

在大数据快速发展的时代,流式处理技术对于实时数据分析至关重要。EMR Serverless Spark提供了一个强大而可扩展的平台,它不仅简化了实时数据处理流程,还免去了服务器管理的烦恼,提升了效率。本文将指导您使用EMR Serverless Spark提交PySpark流式任务,展示其在流处理方面的易用性和可运维性。

阿里云文档 2025-04-09

快速上手Spark Submit开发

EMR Serverless Spark兼容spark-submit命令行参数,简化了任务执行流程。本文通过一个示例,为您演示如何进行Spark Submit开发,确保您能够快速上手。

阿里云文档 2025-04-09

PySpark批任务开发入门

您可以自行编写并构建包含业务逻辑的Python脚本,上传该脚本后,即可便捷地进行PySpark开发。本文通过一个示例,为您演示如何进行PySpark开发。

阿里云文档 2025-02-25

SparkSQL任务快速入门

EMR Serverless Spark支持通过SQL代码编辑和运行任务。本文带您快速体验SQL的创建、启动和运维等操作。

问答 2024-04-02 来自:开发者社区

odps spark任务使用的是大数据计算MaxCompute的资源吗?

odps spark任务使用的是大数据计算MaxCompute的资源吗?

文章 2023-12-25 来自:开发者社区

回答粉丝疑问:Spark为什么调优需要降低过多小任务,降低单条记录的资源开销?

ChatGPT的答案:当Spark处理大量小任务时,会产生大量的网络通信,这会导致性能下降。此外,处理小任务时,单条记录的资源开销也会增加,这会使性能下降。因此,调优时需要尽量减少小任务的数量,以及降低单条记录的资源开销,以提高性能。降低过多小任务:filter操作使用不当,很容易引发麻烦。假如一个任务有3个parition,经过filger过滤之后,可能导致部分剩下很少,有些剩余很多,剩余很多....

问答 2023-07-17 来自:开发者社区

大数据计算MaxCompute的Maxcompute Spark 任务,开启动态资源调度,怎么报错?

问题一:大数据计算MaxCompute的Maxcompute Spark 任务,开启动态资源调度,怎么报错? FetchFailed(BlockManagerId(21, workera90f372b-92dd-49f9-9c01-eb3e9ca0e350cupid-11-220-53-239, 45007, None), shuffleId=0, mapIndex=41, mapId=41, ....

问答 2023-02-14 来自:开发者社区

基于yarn,spark任务可以配置动态资源内存和核数,flink呢?

基于yarn,spark任务可以配置动态资源内存和核数,flink呢,是任务一开始配置多大内存就是多大吗?flink不用配置核数,一个任务会使用多少核呢?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注