阿里云文档 2024-11-15

Spark数据合规说明

本文介绍使用云原生数据仓库 AnalyticDB MySQL 版时可能涉及的海外到中国内地的数据跨境情况。

阿里云文档 2024-11-13

DataWorks中EMR Serverless Spark版本的用户画像分析的加工数据阶段

本文为您介绍如何用Spark SQL创建外部用户信息表ods_user_info_d_spark以及日志信息表ods_raw_log_d_spark访问存储在私有OSS中的用户与日志数据,通过DataWorks的EMR Spark SQL节点进行加工得到目标用户画像数据,阅读本文后,您可以了解如何通过Spark SQL来计算和分析已同步的数据,完成数仓简单数据加工场景。

阿里云文档 2024-11-07

Spark作业读写OSS数据

本文以Spark自带的PageRank作业为例,介绍如何在ACK集群中运行Spark作业,并配置读写位于阿里云OSS(对象存储服务)中的数据。

阿里云文档 2024-10-24

DataWorks中如何同步数据至EMR Serverless Spark

本教程以MySQL数据源中的用户基本信息ods_user_info_d表和HttpFile中的网站访问日志数据user_log.txt文件为例,通过数据集成离线同步任务分别同步至私有OSS中,再通过Spark SQL创建外部表来访问私有OSS数据存储。本章节旨在完成数据同步操作。

阿里云文档 2024-09-06

通过Spark SQL读DLF管理的数据

数据湖构建 DLF(Data Lake Formation)提供了统一的元数据管理、统一的权限与安全管理、便捷的数据入湖能力以及一键式数据探索能力,您可以在云原生数据仓库 AnalyticDB MySQL 版中通过Spark SQL访问DLF中的元数据。

文章 2024-08-14 来自:开发者社区

如何使用 Spark SQL 从 DataFrame 查询数据?

Spark SQL 是 Apache Spark 的模块之一,它使用户可以使用 SQL 查询语言来处理结构化数据。借助 Spark SQL,用户可以在大数据环境中轻松查询、处理和操作数据。本文将详细介绍如何使用 Spark SQL 从 DataFrame 查询数据,包括 DataFrame 的创建、注册为临时视图、执行 SQL 查询,以及相...

文章 2024-07-16 来自:开发者社区

实时计算 Flink版产品使用问题之使用Spark ThriftServer查询同步到Hudi的数据时,如何实时查看数据变化

问题一:flink cdc哪个版本有sqlserverCatalog,能根据表名拿到对应的字段和字段类型? flink cdc哪个版本有sqlserverCatalog,能根据表名拿到对应的字段和字段类型? 参考答案: 你指的是flink-connector-jdbc吧,这个是连接器的特性,1.17的好像就支持了 ...

实时计算 Flink版产品使用问题之使用Spark ThriftServer查询同步到Hudi的数据时,如何实时查看数据变化
问答 2024-06-13 来自:开发者社区

MaxCompute spark SQL查询分区表数据报错java.lang.String c...

MaxCompute spark SQL查询分区表数据报错java.lang.String cannot be cast to java.lang.Integer

问答 2024-05-27 来自:开发者社区

DataWorks有什么方式可以让spark jar能访问表但是临时查询不能访问表数据?

DataWorks现在有种场景,一张表对作业人员做了访问控制,不能在临时查询界面查询表信息,但同时也导致了作业人员运行的spark jar也不能访问这张表了,有什么方式可以让spark jar能访问表但是临时查询不能访问表数据?

问答 2024-02-27 来自:开发者社区

在表格存储中spark写入ots程序没有报错,但是为什么查询ots的时候,发现没有数据?

在表格存储中dataworks的数据开发下面的spark节点,使用spark读取maxcompute数据,并且写入tablestore。我是对于tablestore建立了maxcompute外表,spark写入ots程序没有报错,但是为什么查询ots的时候,发现没有数据?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注