阿里云文档 2024-11-15

Spark数据合规说明

本文介绍使用云原生数据仓库 AnalyticDB MySQL 版时可能涉及的海外到中国内地的数据跨境情况。

阿里云文档 2024-11-13

DataWorks中EMR Serverless Spark版本的用户画像分析的加工数据阶段

本文为您介绍如何用Spark SQL创建外部用户信息表ods_user_info_d_spark以及日志信息表ods_raw_log_d_spark访问存储在私有OSS中的用户与日志数据,通过DataWorks的EMR Spark SQL节点进行加工得到目标用户画像数据,阅读本文后,您可以了解如何通过Spark SQL来计算和分析已同步的数据,完成数仓简单数据加工场景。

阿里云文档 2024-11-07

Spark作业读写OSS数据

本文以Spark自带的PageRank作业为例,介绍如何在ACK集群中运行Spark作业,并配置读写位于阿里云OSS(对象存储服务)中的数据。

阿里云文档 2024-10-24

DataWorks中如何同步数据至EMR Serverless Spark

本教程以MySQL数据源中的用户基本信息ods_user_info_d表和HttpFile中的网站访问日志数据user_log.txt文件为例,通过数据集成离线同步任务分别同步至私有OSS中,再通过Spark SQL创建外部表来访问私有OSS数据存储。本章节旨在完成数据同步操作。

阿里云文档 2024-09-06

通过Spark SQL读DLF管理的数据

数据湖构建 DLF(Data Lake Formation)提供了统一的元数据管理、统一的权限与安全管理、便捷的数据入湖能力以及一键式数据探索能力,您可以在云原生数据仓库 AnalyticDB MySQL 版中通过Spark SQL访问DLF中的元数据。

文章 2024-08-14 来自:开发者社区

如何使用 Spark SQL 从 DataFrame 查询数据?

Spark SQL 是 Apache Spark 的模块之一,它使用户可以使用 SQL 查询语言来处理结构化数据。借助 Spark SQL,用户可以在大数据环境中轻松查询、处理和操作数据。本文将详细介绍如何使用 Spark SQL 从 DataFrame 查询数据,包括 DataFrame 的创建、注册为临时视图、执行 SQL 查询,以及相...

文章 2024-01-19 来自:开发者社区

Spark中使用DataFrame进行数据转换和操作

Apache Spark是一个强大的分布式计算框架,其中DataFrame是一个核心概念,用于处理结构化数据。DataFrame提供了丰富的数据转换和操作功能,使数据处理变得更加容易和高效。本文将深入探讨Spark中如何使用DataFrame进行数据转换和操作,包括数据加载、数据筛选、聚合、连接和窗口函数等方面的内容。 DataFrame简介 DataFrame是一种分布式数据集,它以表格形...

Spark中使用DataFrame进行数据转换和操作
文章 2022-06-13 来自:开发者社区

【Spark】Spark Dataframe 对项目中的数据实现列转行操作

1. KafKa Streams简介功能强大 高拓展性,弹性,容错 有状态和无状态处理 基于事件时间的Window,Join,Aggergations轻量级 无需专门的集群 没有外部以来 一个库,而不是框架完全集成 100%的Kafka 0.10.0版本兼容 易于集成到现有的应用程序 程序部署无需手工处理(这个指的应该是Kafka多分区机制对Kafka Streams多实例的自动匹配)实时性 毫....

【Spark】Spark Dataframe 对项目中的数据实现列转行操作
文章 2022-06-13 来自:开发者社区

【Spark】Spark Dataframe 对项目中的数据实现列转行操作

文章目录一、数据源二、首先考虑单独两行映射三、同理将其余隔行依次映射四、数据进行拼接一、数据源转换之前先看下数据结构多行存在空值需要过滤,不同的状态(yes、maybe、invited、no)存在多个值,需要转换成(events userid status)的状态val df = spark.read.format("csv").option("header","true").load("fil....

【Spark】Spark Dataframe 对项目中的数据实现列转行操作
文章 2022-06-13 来自:开发者社区

【Spark】Spark Dataframe 常用操作(一行数据映射为多行)

spark dataframe派生于RDD类,但是提供了非常强大的数据操作功能。当然主要对类SQL的支持。在实际工作中会遇到这样的情况,主要是会进行两个数据集的筛选、合并,重新入库。首先加载数据集,然后在提取数据集的前几行过程中,才找到limit的函数。而合并就用到union函数,重新入库,就是registerTemple注册成表,再进行写入到HIVE中。不得不赞叹dataframe的强大。具体....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注