文章 2024-10-14 来自:开发者社区

大数据-112 Flink DataStreamAPI 程序输入源 DataSource 基于文件、集合、Kafka连接器

点一下关注吧!!!非常感谢!!持续更新!!!目前已经更新到了:Hadoop(已更完)HDFS(已更完)MapReduce(已更完)Hive(已更完)Flume&...

大数据-112 Flink DataStreamAPI 程序输入源 DataSource 基于文件、集合、Kafka连接器
阿里云文档 2024-07-12

如何在消息队列Kafka版控制台创建并启动迁移任务

元数据迁移是指将自建Kafka集群的元数据迁移到云消息队列 Kafka 版实例。您可以将自建Kafka集群元数据导出,然后导入云消息队列 Kafka 版实例,云消息队列 Kafka 版会根据成功导入的元数据在目标云消息队列 Kafka 版实例中创建对应的Topic和Group,实现自建Kafka集群元数据迁移上云。

文章 2023-10-11 来自:开发者社区

Flink--6、输出算子(连接到外部系统、文件、kafka、MySQL、自定义Sink)

$stringUtil.substring( $!{XssContent1.description},200)...

Flink--6、输出算子(连接到外部系统、文件、kafka、MySQL、自定义Sink)
问答 2023-09-06 来自:开发者社区

Flink CDC文件有没有cdc还是说需要加 工具(filebeat + kafka)才能实现吗?

Flink CDC文件有没有cdc还是说需要加 工具(filebeat + kafka)才能实现吗 ?

阿里云文档 2023-07-06

如何创建迁移任务将元数据迁移至已有实例

本文介绍如何在云消息队列 Kafka 版控制台创建迁移任务,将元数据迁移至云消息队列 Kafka 版已有实例。

文章 2022-12-29 来自:开发者社区

Flume监控文件并将数据输入至Kafka

Flume配置文件a1.sources = r1 a1.sinks = k1 a1.channels = c1 a1.sources.r1.type = exec a1.sources.r1.bind = tail -F /usr/local/hive.log a1.sinks.k1.type = org.apache.flume.sink...

文章 2022-05-13 来自:开发者社区

从源码和日志文件结构中分析 Kafka 重启失败事件

上次的 Kafka 重启失败事件,对为什么重启失败的原因似乎并没有解释清楚,那么我就在这里按照我对 Kafka 的认识,从源码和日志文件结构去尝试寻找原因。从源码中定位到问题的根源首先把导致 Kafka 进程退出的异常栈贴出来:注:以下源码基于 kafka 0.11.0.2 版本。我们直接从 index 文件损坏警告日志的位置...

从源码和日志文件结构中分析 Kafka 重启失败事件

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

消息队列

消息队列是构建分布式互联网应用的基础设施,通过消息队列实现的松耦合架构设计可以提高系统可用性以及可扩展性,是适用于现代应用的优秀设计方案。

+关注