阿里云文档 2024-11-25

管理Spark Thrift Server会话

Spark Thrift Server是Apache Spark提供的一种服务,支持通过JDBC或ODBC连接并执行SQL查询,从而便捷地将Spark环境与现有的商业智能(BI)工具、数据可视化工具及其他数据分析工具集成。本文主要为您介绍如何创建并连接Spark Thrift Server。

阿里云文档 2024-11-22

运行环境管理

Notebook当前已默认安装matplotlib、numpy和pandas。如果您需要使用其他第三方库,可以创建运行环境。

阿里云文档 2024-11-13

DataWorks中EMR Serverless Spark版本的用户画像分析的加工数据阶段

本文为您介绍如何用Spark SQL创建外部用户信息表ods_user_info_d_spark以及日志信息表ods_raw_log_d_spark访问存储在私有OSS中的用户与日志数据,通过DataWorks的EMR Spark SQL节点进行加工得到目标用户画像数据,阅读本文后,您可以了解如何通过Spark SQL来计算和分析已同步的数据,完成数仓简单数据加工场景。

阿里云文档 2024-11-07

全面降价

为秉承普惠开发者的宗旨,并结合产品对引擎能力的持续优化,EMR Serverless Spark按量付费商品预计于2024年11月12日10:00(UTC+8)起全面降价,以将引擎能力优化所带来的红利回馈给客户。

阿里云文档 2024-08-27

Serverless Spark功能发布记录(2024年8月20日)

本文为您介绍2024年8月20日发布的EMR Serverless Spark的重大功能变更。

文章 2024-08-19 来自:开发者社区

DataWorks产品使用合集之如何开发ODPS Spark任务

问题一:DataWorks为什么这个用不了 怎么选择? DataWorks为什么这个用不了 怎么选择? ...

DataWorks产品使用合集之如何开发ODPS Spark任务
问答 2024-07-17 来自:开发者社区

局域网环境下如何提交 MaxCompute Spark 任务

问题描述在公司内部的局域网环境下,默认提交 MaxCompute Spark 任务后无法获取任务状态,长时间卡顿后抛出网络连接异常!如果在公网环境下则无此问题,请问如何在局域网环境下提交任务,需要哪些配置?期望结果在局域网环境下能正常提交 MaxCompute Spark 任务

问答 2024-07-17 来自:开发者社区

执行MaxCompute的Spark任务提示“No space left on device”报错

执行MaxCompute的Spark任务提示“No space left on device”报错。

问答 2024-07-09 来自:开发者社区

dataworks用python写odps spark任务有任何办法引用到额外的jar包吗?

odps spark任务只有使用java时才可以选择jar包资源,python时只能选择python或者archives资源。我想使用graphframes,该包不只需要python还需要jar包。请问该如何把jar包在提交python odps spark任务的时候加进去呢?

文章 2024-06-23 来自:开发者社区

MaxCompute操作报错合集之使用spark.sql执行rename分区操作,遇到任务报错退出的情况,该怎么办

问题一:使用maxcompute开发ODPS Spark任务,使用spark.sql 无法 rename分区使用maxcompute开发ODPS Spark任务,使用spark.sql 执行rename分区 sql: alter table tableNamepartition(date=′dateFrom',source_id=...

MaxCompute操作报错合集之使用spark.sql执行rename分区操作,遇到任务报错退出的情况,该怎么办

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

云原生大数据计算服务 MaxComputespark相关内容

云原生大数据计算服务 MaxCompute更多spark相关

云原生大数据计算服务 MaxCompute您可能感兴趣

产品推荐

阿里巴巴大数据计算

阿里大数据官方技术圈

+关注