阿里云文档 2024-09-06

通过Spark SQL访问DLF元数据

数据湖构建 DLF(Data Lake Formation)提供了统一的元数据管理、统一的权限与安全管理、便捷的数据入湖能力以及一键式数据探索能力,您可以在云原生数据仓库 AnalyticDB MySQL 版中通过Spark SQL访问DLF中的元数据。

阿里云文档 2024-09-06

DataWorks调度Spark

DataWorks是基于MaxCompute作为计算和存储引擎的海量数据离线加工分析平台,用于工作流可视化开发和托管调度运维,支持按照时间和依赖关系的任务全面托管调度。您可以在DataWorks中,通过Shell节点或自定义节点调度和管理云原生数据仓库 AnalyticDB MySQL 版的Spark作业。

阿里云文档 2024-08-16

如何使用Analytic, DB for MySQL, Spark读写AWS S3上的数据

本文主要介绍如何在云原生数据仓库 AnalyticDB MySQL 版(AnalyticDB for MySQL)中使用Spark SQL读写AWS S3中的数据。

阿里云文档 2024-08-12

Azkaban调度Spark

Azkaban是一个批量工作流任务调度器,可以构建、执行和管理包含复杂依赖关系的工作流。您可以借助Spark-Submit命令行工具,在Azkaban Web界面调度云原生数据仓库 AnalyticDB MySQL 版的Spark作业。

阿里云文档 2024-08-05

DolphinScheduler调度Spark

DolphinScheduler是一个分布式易扩展的可视化DAG工作流任务调度开源系统,能高效地执行和管理大数据流程。您可以借助Spark-Submit命令行工具,在DolphinScheduler Web界面轻松创建、编辑、调度云原生数据仓库 AnalyticDB MySQL 版的Spark作业。

问答 2024-07-10 来自:开发者社区

云数据仓库ADB通过DMS调度AnalyticDB MySQL Spark任务-操作步骤

云数据仓库ADB通过DMS调度AnalyticDB MySQL Spark任务-操作步骤

问答 2024-04-02 来自:开发者社区

ADB MySQL湖仓版提交python任务到spark集群时,如何打包环境?

ADB MySQL湖仓版提交python任务到spark集群时,如何打包环境?

问答 2024-02-25 来自:开发者社区

ADB MySQL湖仓版数据都在oss,如果想跑spark作业,这个数据库合适吗?

ADB MySQL湖仓版数据都在oss,如果想跑spark作业,这个数据库合适吗?我看maxcompute,EMR等好几个服务都支持spark,不知道哪个合适,主要场景是oss做离线计算后,再放入oss

文章 2023-10-13 来自:开发者社区

客户说|科脉 x AnalyticDB,Serverless Spark替换CDH助力运维降本80%

原创 汤金源1.业务背景1.1 公司概述深圳市科脉技术股份有限公司(以下简称“科脉”),成立于1999年,专注于泛零售产业的数字科技服务商,是国家级专精特新“小巨人”企业、国家高新技术企业、中国软件行业信用等级AAA企业。秉承“用数字科技陪伴企业持续成长”的理念,提供金融场景的收银系统、SaaS ERP、聚合支付...

客户说|科脉 x AnalyticDB,Serverless Spark替换CDH助力运维降本80%
文章 2023-09-13 来自:开发者社区

AnalyticDB MySQL — Spark 助力在OSS上构建低成本数据湖

【先打一波小广告】阿里云AnalyticDB MySQL升级为湖仓一体架构,支持高吞吐离线处理和高性能在线分析,可无缝替换CDH/TDH/Databricks/Presto/Spark/Hive等。1.目前湖仓版开放了线上训练营,参加实验免费赢耳机/充电宝/卫衣等好礼,报名链接:https://developer.aliyun...

AnalyticDB MySQL — Spark 助力在OSS上构建低成本数据湖

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云原生数据仓库AnalyticDB

定期发送云原生数据仓库AnalyticDB产品重大发布和技术干货

+关注