阿里云文档 2025-06-09

将MongoDB的数据同步至Kafka

数据传输服务DTS(Data Transmission Service)支持将MongoDB的数据同步到Kafka集群中。本文以云数据库MongoDB版(副本集架构)实例为源库,且以阿里云消息队列Kafka版实例为目标库,为您介绍同步操作的步骤。

阿里云文档 2025-06-09

将MongoDB的数据迁移至Kafka

数据传输服务DTS(Data Transmission Service)支持将MongoDB的数据迁移到Kafka集群中。本文以云数据库MongoDB版(副本集架构)实例为源库,且以阿里云消息队列Kafka版实例为目标库,为您介绍迁移操作的步骤。

文章 2024-05-23 来自:开发者社区

实时计算 Flink版产品使用合集之读取 Kafka 和 MongoDB 的 Managed Memory 使用情况不同是什么导致的

问题一:Flink CDC有老师遇到过 polarDB 的 mysql-cdc 有问题的? Flink CDC有老师遇到过 polarDB 的 mysql-cdc 有问题的?按照 flink vvp 的官方文档配置的,现在看起来只有 gtid-set 能读取到数据 参考回答: Flink CDC在处理polarDB的mysql-cdc时,如果只有gti...

文章 2024-04-01 来自:开发者社区

云原生最佳实践系列 5:基于函数计算 FC 实现阿里云 Kafka 消息内容控制 MongoDB DML 操作

01 方案概述 在大数据 ETL 场景,将 Kafka 中的消息流转到其他下游服务是很常见的场景,除了常规的消息流转外,很多场景还需要基于消息体内容做判断,然后决定下游服务做何种操作。 该方案实现了通过 Kafka 中消息 Key 的内容来判断应该对 MongoDB 做增、删、改的哪种 DML 操作。当 Kafka 收到消息后,会自动触发函数计算中的函数,接收...

云原生最佳实践系列 5:基于函数计算 FC 实现阿里云 Kafka 消息内容控制 MongoDB DML 操作
阿里云文档 2023-11-15

将MongoDB数据库和云消息队列Kafka版的数据进行双向同步

本文介绍如何创建MongoDB Connector,将MongoDB数据库和云消息队列 Kafka 版的数据进行双向同步。

阿里云文档 2023-11-15

将MongoDB数据库和云消息队列Kafka版的数据进行双向同步_事件总线(EventBridge)

本文介绍如何创建MongoDB Connector,将MongoDB数据库和云消息队列 Kafka 版的数据进行双向同步。

问答 2022-07-23 来自:开发者社区

PyFlink支持读取Kafka的数据写入MongoDB吗?

PyFlink支持读取Kafka的数据写入MongoDB吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云原生多模数据库Lindorm

Lindorm是适用于任何规模、多种类型的云原生数据库服务,支持海量数据的低成本存储处理和弹性按需付费,兼容HBase、Solr、SQL、OpenTSDB等多种开源标准接口,是互联网、IoT、车联网、广告、社交、监控、游戏、风控等场景首选数据库,也是为阿里巴巴核心业务提供支撑的数据库之一。

+关注
相关镜像