阿里云文档 2024-10-08

使用Spark Operator运行Spark作业

Apache Spark是一种专门用于大规模数据处理的计算引擎,广泛应用于数据分析和机器学习等场景。Spark Operator提供了一种在Kubernetes集群中自动化部署Spark作业和管理其生命周期的能力。本文介绍如何在ACK集群中使用Spark Operator运行Spark作业,帮助数据工程师快速高效地运行和管理大数据处理作业。

阿里云文档 2024-09-23

使用ECI运行Spark作业

在Kubernetes集群中使用ECI来运行Spark作业具有弹性伸缩、自动化部署、高可用性等优势,可以提高Spark作业的运行效率和稳定性。本文介绍如何在ACK Serverless集群中安装Spark Operator,使用ECI来运行Spark作业。

阿里云文档 2024-08-30

在DataWorks中使用Spark Distribution SQL Engine开发Spark SQL作业

若您需要在DataWorks中开发Spark SQL作业,可以通过注册CDH集群的方式,将AnalyticDB for MySQL的Spark Distribution SQL Engine服务注册为一种支持SQL的执行引擎,从而满足您在DataWorks中使用Spark Distribution SQL Engine开发Spark SQL作业的业务需求。

阿里云文档 2024-08-30

通过Spark SQL Engine开发Spark SQL作业

$stringUtil.substring( $!{XssContent1.description},200)...

阿里云文档 2024-07-30

通过Docker镜像启动Jupyter交互式环境并提交Spark作业_云原生数据仓库AnalyticDB MySQL版(AnalyticDB for MySQL)

AnalyticDB MySQL Spark支持使用Docker镜像快速启动Jupyter交互式开发环境,帮助您使用本地Jupyter Lab连接AnalyticDB MySQL Spark,从而利用AnalyticDB MySQL的弹性资源进行交互测试和计算。

文章 2023-10-09 来自:开发者社区

没有监控的流处理作业与茫茫大海中的裸泳无异 - 附 flink 与 spark 作业监控脚本实现

前言大家好,我是明哥!在前段时间的一篇博文中,笔者分析了 flink standalone 模式且不能使用 hdfs 场景下的各种问题及其应对方案,当时明确指出,在只能使用本地文件系统的情况下,flink job manager 是没有办法做到 HA 高可用的,因为没有一个分布式共享存储来提供多个j...

问答 2021-11-11 来自:开发者社区

创建hive sql作业时 hive组件已经配置引擎为spark为啥作业运行时还是跑mr

创建hive sql作业时 hive组件已经配置引擎为spark为啥作业运行时还是跑mr

文章 2019-12-20 来自:开发者社区

60TB 数据量的作业从 Hive 迁移到 Spark 在 Facebook 的实践

$stringUtil.substring( $!{XssContent1.description},200)...

60TB 数据量的作业从 Hive 迁移到 Spark 在 Facebook 的实践

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注