阿里云文档 2024-09-06

DataWorks中EMR Serverless Spark用户画像系统中对数据加工成所需数据

本文为您介绍如何用Spark SQL创建外部用户信息表ods_user_info_d_spark以及日志信息表ods_raw_log_d_spark访问存储在私有OSS中的用户与日志数据,通过DataWorks的SparkSQL节点进行加工得到目标用户画像数据,阅读本文后,您可以了解如何通过SparkSQL来计算和分析已同步的数据,完成数仓简单数据加工场景。

阿里云文档 2024-09-06

DataWorks调度Spark

DataWorks是基于MaxCompute作为计算和存储引擎的海量数据离线加工分析平台,用于工作流可视化开发和托管调度运维,支持按照时间和依赖关系的任务全面托管调度。您可以在DataWorks中,通过Shell节点或自定义节点调度和管理云原生数据仓库 AnalyticDB MySQL 版的Spark作业。

阿里云文档 2024-09-05

DataWorks中如何同步数据至EMR Serverless Spark

本教程以MySQL数据源中的用户基本信息ods_user_info_d表和HttpFile中的网站访问日志数据user_log.txt文件为例,通过数据集成离线同步任务分别同步至私有OSS中,再通过Spark SQL创建外部表来访问私有OSS数据存储。本章节旨在完成数据同步操作。

阿里云文档 2024-09-05

DataWorks中EMR Serverless Spark空间流程的环境准备

本教程以用户画像为例,在华东2(上海)地域演示如何使用DataWorks完成数据同步、数据加工和质量监控的全流程操作。为了确保您能够顺利完成本教程,您需要准备教程所需的 EMR Serverless Spark空间、DataWorks工作空间,并进行相关的环境配置。

阿里云文档 2024-08-30

在DataWorks中使用Spark Distribution SQL Engine开发Spark SQL作业

若您需要在DataWorks中开发Spark SQL作业,可以通过注册CDH集群的方式,将的Spark Distribution SQL Engine服务注册为一种支持SQL的执行引擎,从而满足您在DataWorks中使用Spark Distribution SQL Engine开发Spark SQL作业的业务需求。

问答 2024-07-09 来自:开发者社区

dataworks用python写odps spark任务有任何办法引用到额外的jar包吗?

odps spark任务只有使用java时才可以选择jar包资源,python时只能选择python或者archives资源。我想使用graphframes,该包不只需要python还需要jar包。请问该如何把jar包在提交python odps spark任务的时候加进去呢?

问答 2023-07-22 来自:开发者社区

DataWorks中Local 方式使用 Spark 配置好jar包,依旧报The value ?

DataWorks中Local 方式使用 Spark 配置好jar包,依旧报The value of spark.sql.catalogImplementation should be one of hive, in-memory, but was odps?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

DataWorks

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。作为阿里巴巴数据中台的建设者,DataWorks从2009年起不断沉淀阿里巴巴大数据建设方法论,同时与数万名政务/金融/零售/互联网/能源/制造等客户携手,助力产业数字化升级。

+关注