阿里云文档 2025-05-13

通过Spark实现表格存储数据流计算

本文介绍在使用Spark计算引擎访问表格存储时,如何通过DataFrame编程方式对表格存储中的数据进行流计算,并分别在本地和集群环境中进行运行调试。

阿里云文档 2024-07-05

如何使用Spark DataFrame API开发一个流式作业消费LogService数据

本文简单介绍如何使用Spark DataFrame API开发一个流式作业消费LogService数据。

阿里云文档 2024-05-23

SparkSQL、Dataset和DataFrame介绍以及SparkSQL的基础操作

本文为您介绍Spark SQL、Dataset和DataFrame相关的概念,以及Spark SQL的基础操作。

问答 2018-12-12 来自:开发者社区

如何将Spark Dataframe列的每个值作为字符串传递给python UDF?

我正在尝试GPG加密spark数据帧列 FNamedf = spark.createDataFrame([('Andy', 'NY'), ('Bob', 'PA'), ('Cindy', 'DC')], ("FName", "City"))我创建了一个udf,它将字符串值作为输入,并将加密字符串作为输出。gpg = gnupg.GPG(gnupghome='/home/testgpguser/g....

问答 2018-12-06 来自:开发者社区

拆分spark DataFrame列

我正在使用spark 2.3我有这样的DataFrame(在其他情况下_c0可能包含20个内部字段):c0 | _c11.1 1.2 4.55 | a4.44 3.1 9.99 | b1.2 99.88 10.1 | x我想拆分c0,并像这样创建新的DataFrame:col1 |col2 |c...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注