应用场景

实时数据通道 1.1 接入多种异构数据并投递到下游多种大数据系统 通过数据总线,您可以实时接入APP、WEB、IoT和数据库等产生的异构数据,统一管理,并投递到下游的分析、归档等系统,构建清晰的数据流,让您更好的释放数据的价值。...

什么是EMR on ACK

您可以将开源大数据服务部署在阿里云容器服务Kubernetes版(ACK)之上,利用ACK在服务部署和容器应用管理的优势,减少对底层集群资源的运维投入,以便于您可以更加专注大数据任务本身。形态对比 阿里云EMR提供on ECS和on ACK两种方式,以...

大数据安全治理的难点

通常,大数据系统中的工作流涉及多部门、多责任人且跨系统数据,如何才能协调好这些业务系统准时、保质保量地产出数据,避免出现因业务系统宕机/脏数据导致数据延时产出、产出脏数据,关乎到企业数据业务的连续性问题甚至高层的信任问题...

产品架构

如下图所示,与传统方案相比,Lindorm系统极大地简化数据存储技术架构设计幅度提升系统稳定性,降低建设成本投入。总体架构 Lindorm创新性地使用存储计算分离、多模共享融合的云原生架构,以适应云计算时代资源解耦和弹性伸缩的诉求。...

概述

背景信息 在数据生态系统中,Alluxio位于数据驱动框架或应用(例如Apache Spark、Presto、TensorFlow、Apache Flink和Apache Hive等)和各种持久化存储系统(例如HDFS和阿里云OSS)之间,使得上层的计算应用可以通过统一的客户端API和...

大数据上云及巡检服务内容说明

需求调研(链路、平台架构、范围梳理、计划制定)->方案设计数据迁移方案设计、任务迁移方案设计数据校验方案、割接方案设计等)->开发实施(环境搭建、方案验证、数据迁移、任务迁移、双跑验证)->系统割接(监控告警、割接准备)->...

什么是Dataphin

Dataphin是阿里巴巴集团OneData数据治理方法论内部实践的云化输出,一站式提供数据采、建、管、用全生命周期的大数据能力,以助力企业显著提升数据治理水平,构建质量可靠、消费便捷、生产安全经济的企业级数据中台。Dataphin兼容多种计算...

文档修订记录

DataWorks的上传与下载模块,提供了便捷的数据上传功能,支持将多种来源(例如,本地文件、OSS文件)的数据上传至MaxCompute数据引擎中进行分析处理及相关管理操作,致力于为您提供高效、便捷的数据传输服务,助力您快速实现数据驱动业务...

专业版公测(2022年01月26日)

阿里巴巴分布式任务调度平台SchedulerX 2.0的专业版于2022年01月26正式公测,本次公测带来了全新的可视化功能,兼容开源XXL-JOB任务,支持一次性任务,融合大数据DataWorks任务。可视化 日志服务 在当前微服务和容器化越来越流行的情况下,...

DataWorks on EMR数据安全方案

大数据领域,阿里云为企业用户提供了一整套数据安全方案,包含用户认证、数据权限、大数据作业管理体系等。本文以联合使用DataWorks与EMR为例,为您介绍DataWorks on EMR场景下的数据安全方案。背景信息 DataWorks on EMR目前支持LDAP...

创建桌面迁移任务

可广泛应用于具有高数据安全管控、高性能计算等要求的安全办公、金融、设计、影视、教育等领域。更多信息,请参见 什么是无影云电脑(专业版)。操作系统版本 限制 目前仅支持Windows源服务器迁移至阿里云 无影云电脑,且不支持以下版本:...

桌面迁移

可广泛应用于具有高数据安全管控、高性能计算等要求的安全办公、金融、设计、影视、教育等领域。更多信息,请参见 什么是无影云电脑(专业版)。前提条件 已完成迁移前准备工作。具体操作,请参见 准备工作(迁移前必读)。已导入迁移源。...

一键实时同步至DataHub

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

一键实时同步至Hologres

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

MySQL一键实时同步至MaxCompute

查看全量数据写入情况 在数据开发界面找到ODPS SQL节点,通过命令查询表数据,查询数据前请先在 数据集成>任务运维 界面确认执行步骤中,启动全量数据初始化同步任务运行步骤已执行成功。创建ODPS SQL临时查询节点,详情请参见 创建临时...

MySQL一键实时同步至MaxCompute

查看全量数据写入情况 在数据开发界面找到ODPS SQL节点,通过命令查询表数据,查询数据前请先在 数据集成>任务运维 界面确认执行步骤中,启动全量数据初始化同步任务运行步骤已执行成功。创建ODPS SQL临时查询节点,详情请参见 创建临时...

一键实时同步至Kafka

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

MySQL分库分表同步至MaxCompute

本文以MySQL分库分表实时写入MaxCompute场景为例,为您介绍如何通过数据集成同步分库分表数据至MaxCompute。前提条件 已完成MaxCompute和MySQL数据源配置。您需要将数据库添加至DataWorks上,以便在同步任务配置时,可通过选择数据源名称来...

MySQL分库分表同步至MaxCompute

本文以MySQL分库分表实时写入MaxCompute场景为例,为您介绍如何通过数据集成同步分库分表数据至MaxCompute。前提条件 已完成MaxCompute和MySQL数据源配置。您需要将数据库添加至DataWorks上,以便在同步任务配置时,可通过选择数据源名称来...

一键实时同步至MaxCompute

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

一键实时同步至MaxCompute

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

执行补数据并查看补数据实例(旧版)

数据可通过补历史或未来一段时间的数据,将写入数据至对应时间分区。代码中的 调度参数,将根据补数据选择的业务时间自动替换为具体值,并结合业务代码将对应时间数据写入指定分区。具体写入的分区与执行的代码逻辑,与任务定义的代码...

MySQL分库分表同步至Hologres(方案1.0)

本文以MySQL分库分表实时写入Hologres场景为例,为您介绍如何通过数据集成同步分库分表数据至Hologres。前提条件 已完成Hologres和MySql数据源配置。您需要将数据库添加至DataWorks上,以便在同步任务配置时,可通过选择数据源名称来控制...

一键实时同步至AnalyticDB for MySQL 3.0

您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见 支持的数据源及同步方案。说明 数据...

概述

除此之外,数据工程师、算法工程师和开发工程师的人力成本也是当前数据驱动的智能决策应用难以规模落地的一个阻碍。事实上,鉴于数据库研究在数据发现、数据管理、版本控制、数据清理和数据集成方面积累的专业知识,PolarDB for AI 可以...

应用场景

建立数据平台 得益于其开放式架构设计,EMR Serverless Spark极地简化并提升了在数据湖环境中对结构化和非结构化数据进行高效分析处理的能力。EMR Serverless Spark不仅集成了任务调度系统,使得您能够便捷地构建与管理数据ETL流程,轻松...

建立性能基准

测试项 测试值 数据同步时间 无 占用存储大小 无 查询执行时间 无 查询费用预估 无 记录数据同步时间 在您执行数据同步任务后,可以在 运维中心>周期实例 页面右键查看用户任务运行时间,如下图所示。记录占用存储大小 登录 DataWorks控制...

建立性能基准

测试项 测试值 数据同步时间 无 占用存储大小 无 查询执行时间 无 查询费用预估 无 记录数据同步时间 在您执行数据同步任务后,可以在 运维中心>周期实例 页面右键查看用户任务运行时间,如下图所示。记录占用存储大小 登录 DataWorks控制...

管理数据流动任务

本文介绍如何在文件存储控制台创建、管理CPFS智算版文件系统数据流动任务及查看任务报告。前提条件 已创建数据流动。具体操作,请参见 创建数据流动。任务说明 数据流动任务可分为导入(Import)和导出(Export)两种类型。类型 说明 ...

文档更新动态(2023年)

更新说明 创建Flink SQL任务 新建元表 新建镜像表 新增支持创建补数据任务 新增支持创建补数据任务:支持配置补数据任务,可设置定时补数据或手动触发补数据,以回刷节点范围和业务日期相对规律,确定补数据的场景,减少人工投入。补数据...

什么是数据资源平台

阿里云数据资源平台是数据资产定义、加工、管理、服务的全流程平台,提供数据同步、数据查询、数据标准、数据建模、数据加工、质量评估、业务模型构建、资产管理、数据服务等功能,为智能数据应用持续稳定供给全量、标准、干净、智能的数据...

功能更新动态(2023年)

创建MySQL数据源 创建PolarDB-X数据源 创建AnalyticDB for MySQL 2.0数据源 创建AnalyticDB for PostgreSQL数据源 创建达梦(DM)数据源 创建TiDB数据源 创建Kafka数据源 离线集成 新增Apache Doris数据源的离线集成。整库迁移任务支持...

Amazon Redshift数据

数据同步系统会启动并发任务进行数据同步,以提高数据同步的效能。否 无 Amazon Redshift Writer脚本Demo与参数说明 Amazon Redshift Writer脚本Demo {"stepType":"redshift",/插件名。parameter":{"postSql":["delete from XXX;...

SelectDB数据

DataWorks数据集成支持使用SelectDB ...否 无 flushInterval 数据写入批次的时间间隔(单位:ms),如果 maxBatchRows 和 batchSize 参数设置的很,则可能还未达到设置的数据量大小,系统就会根据写入的时间间隔执行数据导入。否 30000

产品简介

DLA Ganos是基于云原生数据湖分析(Data Lake Analytics,DLA)系统设计开发的,面向时空大数据存储与计算的数据引擎产品。基于DLA无服务器化(Serverless)数据湖分析服务与内置的Spark计算引擎,DLA Ganos打通了阿里云各个存储系统,如...

用户价值

用户角色 功能 能力 详述 数据生产方 数据开发 设计数据模型 开发数据加工逻辑 设计标准、稳定的数据模型:通过数据标准和数据建模,设计标准化数据模型,提高数据模型的稳定性,减少重复开发工作。高效完成数据加工与运维:通过数据同步、...

客户案例

数据体系整体上云,使用少量组件即可实现流批一体、湖仓一体,完成从数据驱动到数智驱动,极发挥数据价值。视频介绍 社交媒体行业:欢聚时代规模数据湖建设 客户简介 欢聚时代成立于2005年,是全球领先的社交媒体企业,旗下运营多款...

常见问题

支持的数据库部署位置(接入方式)阿里云实例 有公网IP的自建数据库 通过数据库网关DG接入的自建数据库 通过云企业网CEN接入的自建数据库 ECS上的自建数据库 通过专线/VPN网关/智能接入网关接入的自建数据库 阿里云实例 通过数据库网关DG接...

Vertica数据

Vertica是一款基于列存储的MPP架构的数据库,Vertica数据源为您提供读取和写入Vertica双向通道的功能,本文为您介绍DataWorks的Vertica数据同步的能力支持情况。支持的版本 Vertica Reader通过Vertica数据驱动访问Vertica,您需要确认...

典型使用场景

而接合LindormStreams+Blink/Spark,可以构建出一套完整的实时数据系统:应用解耦-实时同步到消息队列 通常业务发生之后,应用系统产生的数据需要被其他应用使用或根据这个事件驱动其他应用的业务逻辑,应用之间一般通过消息队列进行消息...
共有200条 < 1 2 3 4 ... 200 >
跳转至: GO
产品推荐
云服务器 安全管家服务 安全中心
这些文档可能帮助您
云数据库 Redis 版 云数据库 RDS 数据传输服务 数据库备份 DBS 弹性公网IP 短信服务
新人特惠 爆款特惠 最新活动 免费试用