阿里云文档 2025-05-13

通过Spark实现表格存储数据流计算

本文介绍在使用Spark计算引擎访问表格存储时,如何通过DataFrame编程方式对表格存储中的数据进行流计算,并分别在本地和集群环境中进行运行调试。

阿里云文档 2024-07-05

如何使用Spark DataFrame API开发一个流式作业消费LogService数据

本文简单介绍如何使用Spark DataFrame API开发一个流式作业消费LogService数据。

阿里云文档 2024-05-23

SparkSQL、Dataset和DataFrame介绍以及SparkSQL的基础操作

本文为您介绍Spark SQL、Dataset和DataFrame相关的概念,以及Spark SQL的基础操作。

文章 2023-11-01 来自:开发者社区

200 Spark DataFrame常用操作- SQL风格语法

如果想使用SQL风格的语法,需要将DataFrame注册成表personDF.registerTempTable("t_person")//查询年龄最大的前两名sqlContext.sql("select * from t_person order by age desc limit 2").show//显示表的Schema信息sqlContext.sql("desc t_person").sh....

200 Spark DataFrame常用操作- SQL风格语法
文章 2023-11-01 来自:开发者社区

199 Spark DataFrame常用操作- DSL风格语法

//查看DataFrame中的内容personDF.show//查看DataFrame部分列中的内容personDF.select(personDF.col("name")).show personDF.select(col("name"), col("age")).show personDF.select("name").show//打印DataFrame的Schema信息personDF.p....

199 Spark DataFrame常用操作- DSL风格语法
文章 2022-06-10 来自:开发者社区

【Spark】Spark Dataframe 常用操作(一行数据映射为多行)

spark dataframe派生于RDD类,但是提供了非常强大的数据操作功能。当然主要对类SQL的支持。在实际工作中会遇到这样的情况,主要是会进行两个数据集的筛选、合并,重新入库。首先加载数据集,然后在提取数据集的前几行过程中,才找到limit的函数。而合并就用到union函数,重新入库,就是registerTemple注册成表,再进行写入到HIVE中。不得不赞叹dataframe的强大。具体....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注