阿里云文档 2024-10-16

在Flink中使用DLF Catalog

本文为您介绍在实时计算Flink版中如何配置DLF 2.0 Catalog,以及在Catalog下如何创建表与查询表数据,帮助您高效利用Flink进行大数据处理。

阿里云文档 2024-09-19

Flink+DLF数据入湖与分析实践

阿里云实时计算Flink版结合DLF Paimon Catalog,实现Flink作业结果到数据湖的高效写入和元数据同步,支持无缝对接多种计算引擎并优化数据湖管理,本文为您介绍具体的操作流程。

问答 2024-08-19 来自:开发者社区

Flink + Iceberg数据湖解决方案在小米的未来规划是什么?

Flink + Iceberg数据湖解决方案在小米的未来规划是什么?

问答 2024-08-06 来自:开发者社区

flink如何从数据湖中读取实时数据?

flink如何从数据湖中读取实时数据?

问答 2024-04-02 来自:开发者社区

flink cdc实时计算的数据湖用哪个好?

flink cdc实时计算的数据湖用哪个好?

文章 2024-03-12 来自:开发者社区

Flink CDC + Hudi + Hive + Presto构建实时数据湖最佳实践

1. 测试过程环境版本说明 Flink1.13.1 Scala2.11 CDH6.2.0 Hadoop3.0.0 Hive2.1.1 Hudi0.10(master) PrestoDB0.256 Mysql5.7 2. 集群服务器基础环境 2.1 Maven和JDK环境版本 ...

Flink CDC + Hudi + Hive + Presto构建实时数据湖最佳实践
文章 2024-03-07 来自:开发者社区

使用 Apache Flink 和 Apache Hudi 创建低延迟数据湖管道

近年来出现了从单体架构向微服务架构的转变。微服务架构使应用程序更容易扩展和更快地开发,支持创新并加快新功能上线时间。但是这种方法会导致数据存在于不同的孤岛中,这使得执行分析变得困难。为了获得更深入和更丰富的见解,企业应该将来自不同孤岛的所有数据集中到一个地方。AWS 提供复制工具,例如 AWS Database Migration Service (AWS DMS),用于将数据更改从各种源数据库....

使用 Apache Flink 和 Apache Hudi 创建低延迟数据湖管道
文章 2024-02-26 来自:开发者社区

飞书深诺基于Flink+Hudi+Hologres的实时数据湖建设实践

一、背景介绍 飞书深诺集团致力于在出海数字营销领域提供全链路服务产品,满足不同企业的全球化营销需求。在广告效果监控和游戏运营业务场景中,为了及时响应广告投放成效与消耗方面的问题和快速监测运营动作效果,实时或准实时数据处理提供了至关重要的技术支撑。 通过对各个业务线实时需求的调研了解到,当前实时数据处理场景是各个业务线基于Java服务独自处理的。各个业务线实时能力不能复用且存在计算...

飞书深诺基于Flink+Hudi+Hologres的实时数据湖建设实践
文章 2023-12-26 来自:开发者社区

流数据湖平台Apache Paimon(二)集成 Flink 引擎

第2章 集成 Flink 引擎Paimon目前支持Flink 1.17, 1.16, 1.15 和 1.14。本课程使用Flink 1.17.0。2.1 环境准备环境准备2.1.1 安装 Flink1)上传并解压Flink安装包tar -zxvf flink-1.17.0-bin-scala_2.12.tgz -C /opt/module/2)配置环境变量sudo vim /etc/profil....

流数据湖平台Apache Paimon(二)集成 Flink 引擎
问答 2023-11-05 来自:开发者社区

数据湖 flink 1.17 兼容 1.13么?

数据湖 flink 1.17 兼容 1.13么?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

实时计算 Flink

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

+关注