文章 2025-09-12 来自:开发者社区

构建高效的实时数据管道:Flink、Kafka、CnosDB 的完美结合

构建高效的实时数据管道:Flink、Kafka、CnosDB 的完美结合

构建高效的实时数据管道:Flink、Kafka、CnosDB 的完美结合
文章 2025-06-05 来自:开发者社区

Flink CDC + Kafka 加速业务实时化

一、Flink CDC 简介 CDC(Change Data Capture)是一种用于捕获数据库变更的技术。通常所说的 CDC 主要面向数据库的数据变化,是一种用于捕捉数据库变更事件的技术。 Flink CDC 经过多轮迭代,已经不再局限于 MySQL 或其他单一数据源的 CDC 数...

Flink CDC + Kafka 加速业务实时化
文章 2025-03-01 来自:开发者社区

基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成

这篇教程将展示如何基于 Flink CDC YAML 快速构建 MySQL 到 Kafka 的 Streaming ELT 作业,包含整库同步、表结构变更同步演示和关键参数介绍。 准备阶段 准备 Flink Standalone 集群 1.下载 Flink 1.19.2[1]压缩包,解压后并跳转至 Flink 目录下,设置 FLINK_HOME 为 flink-1.19....

基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成
文章 2025-02-27 来自:开发者社区

基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成

这篇教程将展示如何基于 Flink CDC YAML 快速构建 MySQL 到 Kafka 的流式数据集成作业,包含整库同步、表结构变更同步的演示和特色功能的介绍。 本教程的演示都将在 Flink CDC CLI 中进行,无需一行 Java/Scala 代码,也无需安装 IDE。 准备阶段 准备 Flink Standalone 集群 下载 Flink 1.19.2,解压后得到 flink-...

基于 Flink CDC YAML 的 MySQL 到 Kafka 流式数据集成
问答 2025-01-08 来自:开发者社区

flink cdc实时同步oracle数据库到kafka报错

flink cdc实时同步oracle数据库到kafka,我自己新建的测试表可以正常同步存量和增量数据,用另一张千万级别数据的表直接启动报错Caused by: java.io.IOException: io.debezium.DebeziumException: The db history topic or its content is fully or partially missing.....

问答 2024-11-12 来自:开发者社区

flink接入Kafka断点续传问题

测试:flink-Kafka,测试生产10条消息,flink接入Kafka进行消费,消费到中间的消息,日志有输出completed checkpoint ,停掉项目,此时再重启项目,不会从未消费的消息消费,还是会从第一条消息开始消费。十条消息全部结束后,有completed check point 输出,此时停机重启,offset会被提交,不会再重复消费

文章 2024-10-14 来自:开发者社区

大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka

点一下关注吧!!!非常感谢!!持续更新!!!目前已经更新到了:Hadoop(已更完)HDFS(已更完)MapReduce(已更完)Hive(已更完)Flume&...

大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
文章 2024-10-14 来自:开发者社区

大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis

点一下关注吧!!!非常感谢!!持续更新!!! 目前已经更新到了: Hadoop(已更完) HDFS(已更完) MapReduce(已更完) Hive(已更完) Flume(已更完) Sqoop(已更完) Zookeeper(已更完) HBase(已更完) Redis (已更完) Kafka(已更完) ...

大数据-116 - Flink DataStream Sink 原理、概念、常见Sink类型 配置与使用 附带案例1:消费Kafka写到Redis
文章 2024-10-14 来自:开发者社区

大数据-112 Flink DataStreamAPI 程序输入源 DataSource 基于文件、集合、Kafka连接器

点一下关注吧!!!非常感谢!!持续更新!!!目前已经更新到了:Hadoop(已更完)HDFS(已更完)MapReduce(已更完)Hive(已更完)Flume&...

大数据-112 Flink DataStreamAPI 程序输入源 DataSource 基于文件、集合、Kafka连接器
文章 2024-10-12 来自:开发者社区

Flink-10 Flink Java 3分钟上手 Docker容器化部署 JobManager TaskManager Kafka Redis Dockerfile docker-compose

代码仓库 会同步代码到 GitHub https://github.com/turbo-duck/flink-demo 本节内容 在学习和测试阶段,需要快速启动一套Flink供我们学习测试。使用常规的安装的方式太费劲了,利用Docker可以快速启动一套完整的系统,方便我...

Flink-10 Flink Java 3分钟上手 Docker容器化部署 JobManager TaskManager Kafka Redis Dockerfile docker-compose

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注