阿里云文档 2025-07-04

通过RootPolicy访问OSS-HDFS

OSS-HDFS服务支持RootPolicy。通过RootPolicy,您可以为OSS-HDFS服务设置自定义前缀。此功能使得Serverless Spark能够在无需修改原有访问hdfs://前缀的任务的情况下,直接操作OSS-HDFS上的数据。

阿里云文档 2025-07-04

管理自定义配置文件

自定义配置文件功能支持根据特定需求创建个性化配置,灵活控制任务执行环境。支持多种文件格式(如XML和JSON),确保配置的安全性和一致性,并可直接应用于各类任务(如批处理、会话等)。

阿里云文档 2025-07-04

管理Spark配置模板

Spark配置模板用于定义全局默认配置,支持创建、编辑和管理任务运行所需的参数。通过集中维护 Spark 配置信息,确保任务执行的一致性和灵活性,同时支持动态更新以满足多样化业务需求。

阿里云文档 2025-06-16

读写MySQL

Spark原生支持通过JDBC Connector访问MySQL。Serverless Spark在启动时将自动加载MySQL JDBC驱动(版本 8.0.33)。您可以通过SQL会话、批处理任务或Notebook等方式连接MySQL,从而实现数据的读取与写入操作。

阿里云文档 2025-06-13

2025-06-05版本说明

本文为您介绍2025年06月05日发布的EMR Serverless Spark的功能变更。

文章 2022-12-30 来自:开发者社区

HADOOP MapReduce 处理 Spark 抽取的 Hive 数据【解决方案一】

开端:今天咱先说问题,经过几天测试题的练习,我们有从某题库中找到了新题型,并且成功把我们干趴下,昨天今天就干了一件事,站起来。沙问题?java mapeduce 清洗 hive 中的数据 ,清晰之后将driver代码 进行截图提交。坑号1: spark之前抽取的数据是.parquet格式的, 对 mapreduce 不太友好,我决定从新抽取, 还是用spark技术,换一种文件格式坑号2....

HADOOP MapReduce 处理 Spark 抽取的 Hive 数据【解决方案一】
问答 2022-12-12 来自:开发者社区

E-MapReduce Spark如何访问Delta Lake和Hudi数据

E-MapReduce Spark如何访问Delta Lake和Hudi数据

文章 2017-02-26 来自:开发者社区

E-MapReduce中Spark 2.x读写MaxCompute数据

最新的aliyun-emapreduce-sdk将MaxCompute数据以DataSource的方式接入Spark 2.x,用户可以使用类似Spark 2.x中读写json/parquet/csv的方式来访问MaxCompute. 0. DataSource a) DataSource提供了一种插件式的外部数据接入SparkSQL的方式,数据源只要实现相应的DataSource API即可以整....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐