阿里云文档 2024-07-12

如何在消息队列Kafka版控制台创建并启动迁移任务

元数据迁移是指将自建Kafka集群的元数据迁移到云消息队列 Kafka 版实例。您可以将自建Kafka集群元数据导出,然后导入云消息队列 Kafka 版实例,云消息队列 Kafka 版会根据成功导入的元数据在目标云消息队列 Kafka 版实例中创建对应的Topic和Group,实现自建Kafka集群元数据迁移上云。

文章 2024-07-09 来自:开发者社区

Kafka日志处理:深入了解偏移量查找与切分文件

Hello, 大家好!我是你们的技术小伙伴小米,今天要和大家分享一些关于Kafka日志处理的深入知识。我们将讨论如何查看偏移量为23的消息,以及Kafka日志分段的切分策略。准备好了吗?让我们开始吧! 如何查看偏移量为23的消息? 在Kafka中,偏移量是消息的唯一标识,了解如何查找特定偏移量的消息是非常重要的。下面,我们将一步步详细介绍如何通过查询跳跃表ConcurrentSk...

Kafka日志处理:深入了解偏移量查找与切分文件
问答 2024-05-23 来自:开发者社区

Kafka的日志分段文件是如何切分的?

Kafka的日志分段文件是如何切分的?

阿里云文档 2023-07-06

如何创建迁移任务将元数据迁移至已有实例

本文介绍如何在云消息队列 Kafka 版控制台创建迁移任务,将元数据迁移至云消息队列 Kafka 版已有实例。

问答 2022-02-15 来自:开发者社区

大家好,业务场景是这样的,从kafka拉来的数据需要对原始日志进行备份,使用 BucketingSink bk=new BucketingSink("hdfs-path");写入HDFS,不同的文件写入不同的目录,有性能问题吗,每个新到的文件就新new一个BucketingSink,

转自钉钉群21789141:大家好,业务场景是这样的,从kafka拉来的数据需要对原始日志进行备份,使用BucketingSink bk=new BucketingSink("hdfs-path");写入HDFS,不同的文件写入不同的目录,有性能问题吗,每个新到的文件就新new一个BucketingSink

文章 2022-02-14 来自:开发者社区

kafka log4j日志级别修改,一天生成一个日志文件

$stringUtil.substring( $!{XssContent1.description},200)...

文章 2021-12-31 来自:开发者社区

《kafka问答100例 -2》 创建Topic的时候 什么时候在Broker磁盘上创建的日志文件

$stringUtil.substring( $!{XssContent1.description},200)...

《kafka问答100例 -2》 创建Topic的时候 什么时候在Broker磁盘上创建的日志文件

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

消息队列

消息队列是构建分布式互联网应用的基础设施,通过消息队列实现的松耦合架构设计可以提高系统可用性以及可扩展性,是适用于现代应用的优秀设计方案。

+关注