阿里云开源大数据平台E-MapReduce(简称EMR)具有广泛的应用场景。本文为您介绍EMR的主要应用场景。数据湖场景 DataLake集群类型提供了数据湖分析场景所需的服务和相关湖格式,包括Hadoop、OSS-HDFS、Hive、Spark、Presto等。通过选择OSS-...
大数据导出选项 导出TINYBLOB、BLOB、MEDIUMBLOB、LONGBLOB类型(输出格式为16进制)。导出BINARY、VARBINARY类型(输出格式为16进制)。导出TINYTEXT、TEXT、MEDIUMTEXT、LONGTEXT类型。SQL脚本拓展选项 在CREATE语句前生成DROP TABLE语句...
为满足多样化的数据导入需求,AnalyticDB for MySQL 提供了多种数据导入方式,包括:通过外表导入数据、通过DataWorks导入数据、通过DTS导入数据以及使用JDBC通过程序导入数据等。您可以通过本文了解各导入方式的特性及适用场景,帮助您...
使用Checksum迁移HDFS数据到OSS 使用Checksum迁移HDFS数据到OSS 2021-05-11 通过Checksum算法,你可以在大数据迁移场景中校验数据的完整性、对比数据差异并实现增量迁移。本视频为您介绍如何使用Jindo Distcp迁移HDFS数据到OSS,以及在迁移...
在 新建数据源 对话框的 大数据存储 区域,选择 IMPALA。如果您最近使用过IMPALA,也可以在 最近使用 区域选择IMPALA。同时,您也可以在搜索框中,输入IMPALA的关键词,快速筛选。在 新建IMPALA数据源 对话框中,配置连接数据源参数。配置...
例如:《金融数据安全分级指南 JR/T 0197-2020》《网络安全标准实践指南——网络数据分类分级指引》《信息安全技术个人信息安全规范 GB/T 35273—2020》《信息技术大数据数据分类指南 GB/T 38667-2020》《基础电信企业数据分类分级方法 YD/...
智能化:运用大数据和机器学习能力,通过智能化的算法,对敏感数据和高风险活动,例如数据异常访问和潜在的泄露风险进行有效识别和监控,并提供修复建议。提供定制化的敏感数据识别能力,便于客户自定义识别标准,实现精准识别和高效防护。...
在数据库备份场景下,有4个概念:数据库磁盘空间、数据文件空间、备份数据量、存储数据量。数据量 说明 数据库磁盘空间 由数据库的数据文件空间、数据库的日志文件空间、操作系统文件空间和空闲空间组成。说明 RDS中为:购买时选择的存储...
批量和实时导入数据 批量导入:适用于大数据量导入的场景,导入过程中可以查询旧数据,导入操作完成后一键切换新数据。导入失败时,支持回滚新数据,不影响查询旧数据。例如,从MaxCompute、OSS中导入数据到 AnalyticDB MySQL版 时,推荐...
DataWorks基于MaxCompute等引擎,提供统一的全链路大数据开发治理平台。本文为您介绍如何通过DataWorks使用MaxCompute服务。背景信息 DataWorks支持将计算引擎绑定至DataWorks的工作空间,绑定计算引擎后,您即可在DataWorks上创建对应引擎...
Histogram 2024-05-22 新增云原生大数据计算服务MaxCompute系统权限策略参考 新说明 本文描述云原生大数据计算服务MaxCompute支持的所有系统权限策略及其对应的权限描述,供您授权RAM身份时参考。云原生大数据计算服务 MaxCompute系统权限...
在 新建数据源 对话框的 大数据存储 区域,选择 TDengine。如果您最近使用过TDengine,也可以在 最近使用 区域选择TDengine。同时,您也可以在搜索框中,输入TDengine的关键词,快速搜索。在 新建TDengine数据源 对话框中,配置数据源的...
功能介绍 数据质量支持对常见大数据存储(MaxCompute、E-MapReduce、Hologres、AnalyticDB PostgreSQL、AnalyticDB MySQL和CDH等)进行质量校验。从完整性、准确性、有效性、一致性、唯一性和及时性等多个维度,配置质量监控规则。并可以将...
数据订阅功能可以帮助您获取数据库的实时增量数据,您可以根据自身业务需求自由消费增量数据,并写入目标端,实现各类业务场景,例如缓存更新、业务异步解耦、异构数据源数据实时同步及含复杂ETL的多种业务场景。源库限制 限制项 说明 网络...
在 新建数据源 对话框的 大数据存储 区域,选择 IMPALA。如果您最近使用过IMPALA,也可以在 最近使用 区域选择IMPALA。同时,您也可以在搜索框中,输入IMPALA的关键词,快速筛选。在 新建IMPALA数据源 对话框中,配置连接数据源参数。配置...
数据订阅功能可以帮助您获取数据库的实时增量数据,您可以根据自身业务需求自由消费增量数据,并写入目标端,实现各类业务场景,例如缓存更新、业务异步解耦、异构数据源数据实时同步及含复杂ETL的多种业务场景。源库限制 限制项 说明 网络...
数据大小 云数据库 Memcache 版支持的单条缓存数据的 Key 最大不超过 1 KB,Value 最大不超过 1 MB,过大的数据不适合存储。事务支持 云数据库 Memcache 版不支持事务,有事务性要求的数据不适合写入,而应该直接写入数据库。使用场景 当...
在 新建数据源 对话框的 大数据存储 区域,选择 TDengine。如果您最近使用过TDengine,也可以在 最近使用 区域选择TDengine。同时,您也可以在搜索框中,输入TDengine的关键词,快速搜索。在 新建TDengine数据源 对话框中,配置数据源的...
Presto可以用于实时查询、交互式分析和大数据集的处理。权限说明 仅支持拥有 新建数据源 权限点的自定义全局角色和 超级管理员、数据源管理员、板块架构师、项目管理员 系统角色创建数据源。操作步骤 在Dataphin首页,单击顶部菜单栏 管理...
DLA Ganos是基于云原生数据湖分析(Data Lake Analytics,DLA)系统设计开发的,面向时空大数据存储与计算的数据引擎产品。基于DLA无服务器化(Serverless)数据湖分析服务与内置的Spark计算引擎,DLA Ganos打通了阿里云各个存储系统,如...
配置ArgoDB输出组件,可以将外部数据库中读取的数据写入到ArgoDB,或从大数据平台对接的存储系统中将数据复制推送至ArgoDB,进行数据整合和再加工。本文为您介绍如何配置ArgoDB输出组件。使用限制 ArgoDB输出组件支持写入文件格式为orc、...
配置ArgoDB输出组件,可以将外部数据库中读取的数据写入到ArgoDB,或从大数据平台对接的存储系统中将数据复制推送至ArgoDB,进行数据整合和再加工。本文为您介绍如何配置ArgoDB输出组件。使用限制 ArgoDB输出组件支持写入文件格式为orc、...
基于标签数据的群体分析、专家业务模型构建、全流程任务监控告警、数据服务化、数据资产管理等核心能力,提供标准化程度高、易用性强的一站式大数据管理平台。依托数据资源平台,可设计高质量的标准化数据模型,减少重复开发工作,用户可...
背景信息 智能分析套件Quick BI是一个专为云上用户量身打造的易上手、性能强的大数据分析及可视化平台,可以让每个人都能成为数据分析师。Quick BI不仅是业务人员查看数据的工具,更是数据化运营的助推器。更多Quick BI信息,请参见 Quick ...
Presto可以用于实时查询、交互式分析和大数据集的处理。更多信息,请参见 Presto官网。权限说明 仅支持拥有 新建数据源 权限点的自定义全局角色和 超级管理员、数据源管理员、板块架构师、项目管理员 系统角色创建数据源。操作步骤 在...
随着大数据业务的不断扩展,新的数据使用场景在不断产生,MaxCompute计算框架也在不断演化。MaxCompute原来主要面对内部特殊格式数据的强大计算能力,正一步步地开放给不同的外部数据。现阶段MaxCompute SQL处理的主要是以 cfile 列格式...
一级菜单 二级菜单 说明 元数据采集 采集概览 元数据支持丰富的采集源类型,如传统数据库MySQL、Oracle,大数据存储Hive、Hologres等,可一览不同数据源类型已创建的采集任务、已创建的数据源、采集对象类型和支持的版本。采集任务 通过...
在 新建数据源 对话框的 大数据存储 区域,选择 Lindorm(计算引擎)。如果您最近使用过Lindorm(计算引擎),也可以在 最近使用 区域选择Lindorm(计算引擎)。同时,您也可以在搜索框中,输入Lindorm(计算引擎)的关键词,快速筛选。在 ...
背景信息 Aliyun HBase即阿里云的云数据库HBase,是低成本、高扩展、云智能的大数据NoSQL。兼容标准HBase访问协议,提供低成本存储、高扩展吞吐、智能数据处理等核心能力,具备PB规模、高并发、秒级伸缩、毫秒响应、跨机房高可用、全托管、...
功能概述 SQL查询 SQL查询是使用标准的SQL语句,来查询和分析存储在MaxCompute中的大数据,详情请参见 SQL查询。您可以通过编写SQL语句,对有查询权限的数据源进行快速的数据查询与分析操作,详情请参见 功能概览。DataWorks SQL查询提供了...
通过创建Teradata数据源能够实现Dataphin读取Teradata的业务数据或向Teradata写入数据。本文为您介绍如何创建Teradata数据源。背景信息 Teradata是一款大型数据仓库系统。如果您使用的是Teradata,在对接Dataphin进行数据开发或导出...
数据源支持情况 数据集成目前支持40种以上的数据源类型(包括关系型数据库、非结构化存储、大数据存储、消息队列等),通过定义来源与去向数据源,并使用数据集成提供的数据抽取插件(Reader)、数据写入插件(Writer),实现任意结构化、...
大数据:TableStore、MaxCompute、ADB-MYSQL、ADB-PG。详细说明,请参见 支持的数据资产类型。数据源授权完成后需要多长时间完成扫描?DSC 完成数据源授权后,会在2小时内启动扫描。扫描时长将由您所需扫描的数据量决定。当存在大量数据表...
通过创建Teradata数据源能够实现Dataphin读取Teradata的业务数据或向Teradata写入数据。本文为您介绍如何创建Teradata数据源。背景信息 Teradata是一款大型数据仓库系统。如果您使用的是Teradata,在对接Dataphin进行数据开发或导出...
在 新建数据源 对话框的 大数据存储 区域,选择 Hologres。如果您最近使用过Hologres,也可以在 最近使用 区域选择Hologres。同时,您也可以在搜索框中,输入Hologres的关键词,快速筛选。在 新建Hologres数据源 对话框中,配置连接数据源...
在 新建数据源 对话框的 大数据存储 区域,选择 Lindorm(计算引擎)。如果您最近使用过Lindorm(计算引擎),也可以在 最近使用 区域选择Lindorm(计算引擎)。同时,您也可以在搜索框中,输入Lindorm(计算引擎)的关键词,快速筛选。在 ...
具体操作,请参见 数据源白名单配置 背景信息 Aliyun HBase即阿里云的云数据库HBase,是低成本、高扩展、云智能的大数据NoSQL。兼容标准HBase访问协议,提供低成本存储、高扩展吞吐、智能数据处理等核心能力,具备PB规模、高并发、秒级伸缩...
扫描说明 扫描速度 不同类型数据资产的扫描速度说明如下,该扫描速度仅供参考:结构化数据(RDS MySQL、RDS PostgreSQL、PolarDB等)、大数据(TableStore、MaxCompute等):对于较大的数据库(即表数量大于1000个),扫描速度为1000列/...
在MaxCompute的使用过程中,如果已经积累了大量数据占用了大量存储资源,且已经通过削减数据存储生命周期和删除非必要数据等方式进行了治理,在您的存储预算有限,计算资源还有冗余的情况下,可以考虑使用数据重排方式对存储空间进行优化。...
背景信息 开源大数据开发平台E-MapReduce(简称EMR),是运行在阿里云平台上的一种大数据处理的系统解决方案。EMR基于开源的Apache Hadoop和Apache Spark,让您可以方便地使用Hadoop和Spark生态系统中的其他周边系统分析和处理数据。阿里云...