[帮助文档] 开发SparkSQL任务

本文为您介绍SQL任务开发的配置项说明和操作步骤。

[帮助文档] 管理SQL Compute

Compute是指EMR Serverless Spark工作空间中可用的计算资源。您需要访问Compute来运行SQL查询和进行数据科学分析。 本文主要为您介绍如何创建SQL Compute。

阿里云大数据工程师ACA认证(2023版)

21 课时 |
807 人已学 |
免费

基于MaxCompute的热门话题分析

8 课时 |
329 人已学 |
免费

独家揭秘当下大数据体系

4 课时 |
331 人已学 |
免费
开发者课程背景图

[帮助文档] Spark SQL任务快速入门

EMR Serverless Spark支持通过SQL代码编辑和运行任务。本文带您快速体验Spark SQL任务的创建、启动和运维等操作。

[帮助文档] SQL File使用说明

DSW提供了SQL File插件功能,支持您通过SQL语句的方式,对具有查询权限的MaxCompute数据源进行快速的数据查询。

[帮助文档] 使用DataWorks周期性执行SQL Server任务

DataWorks的SQL Server节点可进行SQL Server任务的开发和周期性调度,以及与其他作业的集成操作。本文为您介绍使用SQL Server节点进行任务开发的主要流程。

大数据计算MaxCompute pyodps代码里面的调度参数不能像SQL一样用${dt}嘛?

大数据计算MaxCompute pyodps代码里面的调度参数不能像SQL一样用${dt}嘛?

大数据计算MaxCompute pyodps的代码通过options.sql.settings加?

大数据计算MaxCompute pyodps的代码通过options.sql.settings加?

大数据计算MaxCompute 128K是说整个提交机器上的代码,还是说仅仅运行的SQL?

大数据计算MaxCompute 128K是说整个提交机器上的代码,还是说仅仅运行的SQL?我是把几百个SQL放到一个[],然后循环跑的,但是我单个SQL最长有3W个字符长度,但是3W也没有超过128K吧,所以感觉应该是整个代码文件加起来,我不知道对不对?

MaxCompute使用jdbc,代码中生成的SQL语句,在代码中执行时,报错怎么办?

MaxCompute使用jdbc,代码中生成的SQL语句,在代码中执行时,报错怎么办?无法写到下游表中第一张图:是odps-jdbc源码第二张图:debug时,parameter参数 生成的SQL语句:INSERT INTO max_test_wl.all_type_test(int_col, bi...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里巴巴大数据计算
阿里巴巴大数据计算
阿里大数据官方技术圈
347750+人已加入
加入
相关电子书
更多
MaxCompute SQL 2.0 全新的计算引擎
MaxCompute SQL介绍
MaxCompute SQL计算成本调优以及优化方法
立即下载 立即下载 立即下载

云原生大数据计算服务 MaxComputesql相关内容