阿里云文档 2025-11-05

调用GetFile API获取文件详情-大数据开发治理平台 DataWorks-阿里云

该接口用于获取文件的详情。

阿里云文档 2025-11-03

使用DistCp任务实现大规模文件迁移

当您需要大文件或多文件的纯文件复制时,可以使用DataWorks创建DistCp任务,该方式能够极大的提高同步传输的效率,实现跨文件系统、大规模数据迁移和同步需求。

阿里云文档 2025-09-19

Serverless Spark支持通过自动或手动解冻OSS归档文件,确保SQL作业连续执行,需版本esr-4.4.0及以上。

当Spark作业需读取OSS归档存储中的数据时,因文件处于冻结状态无法直接访问,导致任务失败。本功能支持自动或手动触发解冻流程,确保作业正常执行,提升冷数据处理效率。

文章 2018-08-31 来自:开发者社区

[MaxCompute MapReduce实践]通过简单瘦身,解决Dataworks 10M文件限制问题

用户在DataWorks上执行MapReduce作业的时候,文件大于10M的JAR和资源文件不能上传到Dataworks,导致无法使用调度去定期执行MapReduce作业。 解决方案: 第一步:大于10M的resources通过MaxCompute CLI客户端上传, 客户端下载地址:https://help.aliyun.com/document_detail/27971.html 客户端配.....

问答 2017-07-18 来自:开发者社区

看MaxCompute(原ODPS)说明文档说输入数据只能是表结构 1.是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现 2.是否支持其他的数据工具,如何跑基于spark的任务

看MaxCompute(原ODPS)说明文档说输入数据只能是表结构1.是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现2.是否支持其他的数据工具,如何跑基于spark的任务

问答 2017-07-04 来自:开发者社区

看Maxcompute说明文档说输入数据只能是表结构 是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现

看Maxcompute说明文档说输入数据只能是表结构是否可以跑用户自定义的原生的基于hdfs的Mapreduce任务,输入为hdfs文件,输出为hdfs文件,mapper的逻辑以及reducer的逻辑用户自定义实现

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

云原生大数据计算服务 MaxCompute文件相关内容

云原生大数据计算服务 MaxCompute您可能感兴趣

产品推荐

阿里巴巴大数据计算

阿里大数据官方技术圈

+关注