阿里云文档 2026-02-04

Serverless Spark计算资源

若您要使用DataWorks进行EMR Serverless Spark任务的开发、管理,需先将您的EMR Serverless Spark工作空间绑定为DataWorks的Serverless Spark计算资源。绑定完成后,可在DataWorks中使用该计算资源进行数据开发操作。

阿里云文档 2025-12-03

绑定Serverless StarRocks计算资源

若您要使用DataWorks进行EMR Serverless StarRocks任务的开发、管理,需先将您的EMR Serverless StarRocks实例绑定为DataWorks的Serverless StarRocks计算资源。绑定完成后,可在DataWorks中使用该计算资源进行数据开发操作。

阿里云文档 2025-12-03

绑定CDH计算资源

若您要使用DataWorks进行CDH(Cloudera’s Distribution Including Apache Hadoop,以下简称CDH)任务的开发、管理,需先将您的CDH集群绑定为DataWorks的CDH计算资源。绑定完成后,可在DataWorks中使用该计算资源进行数据同步和开发等操作。

阿里云文档 2025-11-17

绑定EMR计算资源

若您要使用DataWorks进行E-MapReduce(简称EMR)任务的开发、管理,需先将您的E-MapReduce集群绑定为DataWorks的EMR计算资源。绑定完成后,可在DataWorks中使用该计算资源进行数据同步和开发等操作。

阿里云文档 2025-10-28

绑定AnalyticDB for Spark计算资源

若您要使用DataWorks进行AnalyticDB for Spark任务的开发、管理,需先将您的云原生数据仓库AnalyticDB for MySQL集群绑定为DataWorks的AnalyticDB for Spark计算资源。绑定完成后,可在DataWorks中使用该计算资源进行数据开发操作。

问答 2024-01-15 来自:开发者社区

如何在MaxCompute中新建Table资源?

我想在UDF函数中根据表数据求值,可是调用Python的get_cache_table报告无法找到资源。我的MaxCompute-资源-新建中并没有table选项,请问这是因为MaxCompute版本不够高还是因为我用户的权限不够高?

问答 2017-08-24 来自:开发者社区

存储到 MaxCompute 的数据,包括表(Table)和资源(Resource)等,会按照其数据容量的大小进行阶梯计费,计费周期是:天。 MaxCompute 以小时级别采集用户每个项目空间下在当前的存储使用情况,并以项目空间为基本单位,计算用户当天的存储平均值再乘以单价。 文档里是这样写的,那么存储计费的周期到底是天还是小时呢。

存储到 MaxCompute 的数据,包括表(Table)和资源(Resource)等,会按照其数据容量的大小进行阶梯计费,计费周期是:天。MaxCompute 以小时级别采集用户每个项目空间下在当前的存储使用情况,并以项目空间为基本单位,计算用户当天的存储平均值再乘以单价。文档里是这样写的,那么存储计费的周期到底是天还是小时呢。

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

云原生大数据计算服务 MaxCompute资源相关内容

云原生大数据计算服务 MaxCompute更多资源相关

云原生大数据计算服务 MaxCompute您可能感兴趣

产品推荐

阿里巴巴大数据计算

阿里大数据官方技术圈

+关注