阿里云文档 2024-08-29

AnalyticDB MySQL湖仓版的用户运营分析实践

本方案使用AnalyticDB MySQL湖仓版实现对应用数据的分析,只需一个湖仓版实例就能完成“数据入湖+作业开发+在线分析”的一站式用户运营数据分析,提供更高效的数据处理方案与更低的数据存储成本。

阿里云文档 2024-08-06

如何基于GitHub公开事件数据集实现离线实时一体化

本文为您介绍如何基于GitHub实时事件数据通过MaxCompute构建离线数仓、通过Flink和Hologres构建实时数仓,然后通过Hologres和MaxCompute分别进行实时与离线数据分析,从而实现实时离线一体化解决方案。

阿里云文档 2024-04-25

MaxCompute+DLF+OSS湖仓一体的湖查询和湖数据入仓实践

MaxCompute、DLF和OSS是阿里云提供的一体化解决方案,可以实现数据湖查询和湖数据入仓。通过配置DLF,将数据从OSS导入到MaxCompute中,并使用MaxCompute进行数据湖查询。该方案可以方便地进行数据分析和处理,并保证数据的可靠性和安全性。

阿里云文档 2024-04-25

于DLF数据入湖的MaxCompute湖仓一体实践

由于DLF中数据入湖功能已经停止更新,本文采用DataWorks数据集成的入湖方式,以MySQL数据入湖为例,为您介绍在MaxCompute中如何创建外部项目,并查询DLF中的表数据。

文章 2024-03-07 来自:开发者社区

阿里云AnalyticDB基于Flink CDC+Hudi实现多表全增量入湖实践

湖仓一体(LakeHouse)是大数据领域的重要发展方向,提供了流批一体和湖仓结合的新场景。阿里云AnalyticDB for MySQL基于 Apache Hudi 构建了新一代的湖仓平台,提供日志、CDC等多种数据源一键入湖,在离线计算引擎融合分析等能力。本文将主要介绍AnalyticDB for MySQL基于Apache Hudi实现多表CDC全增量入湖的经验与实践。 1. 背景...

阿里云AnalyticDB基于Flink CDC+Hudi实现多表全增量入湖实践
文章 2023-09-27 来自:开发者社区

【湖仓一体】阿里云AnalyticDB MySQL基于Flink CDC+Hudi实现多表全增量入湖实践

【先打一波小广告】阿里云AnalyticDB MySQL升级为湖仓一体架构,支持高吞吐离线处理和高性能在线分析,可无缝替换CDH/TDH/Databricks/Presto/Spark/Hive等。1.目前湖仓版开放了线上训练营,参加实验免费赢耳机/充电宝/卫衣等好礼,报名链接:https://developer.aliyun...

【湖仓一体】阿里云AnalyticDB MySQL基于Flink CDC+Hudi实现多表全增量入湖实践
阿里云文档 2023-08-03

湖仓一体的Demo实践有哪些

湖仓一体的Demo实践有哪些

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云原生数据仓库AnalyticDB

定期发送云原生数据仓库AnalyticDB产品重大发布和技术干货

+关注