阿里云文档 2025-12-09

如何配置整库离线同步任务

DataWorks的整库离线同步功能,支持将源数据库中的全部或部分表结构与数据,批量、周期性地进行全量或增量同步至目标端,是实现高效数据迁移的关键解决方案。本文将以MySQL整库迁移至MaxCompute为例,介绍配置此类任务的通用流程。

阿里云文档 2025-11-03

使用DistCp任务实现大规模文件迁移

当您需要大文件或多文件的纯文件复制时,可以使用DataWorks创建DistCp任务,该方式能够极大的提高同步传输的效率,实现跨文件系统、大规模数据迁移和同步需求。

阿里云文档 2025-10-24

本文介绍了使用VS Code、通义灵码和spark-submit工具自动生成PySpark任务代码并提交至EMR Serverless Spark的全流程方法,显著简化了开发与执行复杂度。

通过VS Code、通义灵码以及Serverless Spark提供的spark-submit工具,用户能够快速生成Spark任务代码并将其提交至Serverless Spark进行执行。本文将为您详细介绍如何使用上述工具提交Serverless Spark任务。

阿里云文档 2025-10-16

通过离线同步任务实现Embedding向量化处理

阿里云DataWorks数据集成推出Embedding向量化功能,支持将分散在OSS、MaxCompute、HDFS等异构来源中的数据抽取并转化为向量,写入Milvus、Elasticsearch、Opensearch等向量库,以及Hologres向量表等具备向量存储能力的目标端,能够大幅简化ETL流程,高效实现知识向量化,助力RAG等AI场景落地。

问答 2024-05-31 来自:开发者社区

DataWorks上开发odps spark任务在submit阶段oom

DataWorks上开发odps spark任务在submit阶段oom

问答 2024-03-18 来自:开发者社区

使用maxcompute开发ODPS Spark任务,使用spark.sql 无法 rename分区

使用maxcompute开发ODPS Spark任务,使用spark.sql 执行rename分区 sql: alter table $tableName partition(date='$dateFrom',source_id=$sourceFrom) rename to partition(date='$dateTo',source_id=$sourceTo), 任务报错退出。 报错信息如下....

问答 2023-01-09 来自:开发者社区

DataWorks上开发ODPS Spark任务在submit阶段OOM,Caused by: j

DataWorks上开发ODPS Spark任务在submit阶段OOM,Caused by: java.lang.OutOfMemoryError: Java heap space

问答 2022-02-15 来自:开发者社区

Dataworks数据集成开发odps到es任务报错NPE

异常Exception in thread "taskGroup-2" com.alibaba.datax.common.exception.DataXException: Code:[Framework-13], Description:[DataX插件运行时出错, 具体原因请参看DataX运行结束时的错误诊断信息 .]. - java.lang.NullPointerException

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

云原生大数据计算服务 MaxCompute任务相关内容

云原生大数据计算服务 MaxCompute更多任务相关

云原生大数据计算服务 MaxCompute您可能感兴趣

产品推荐

阿里巴巴大数据计算

阿里大数据官方技术圈

+关注