如何创建SLS Sink Connector
本文介绍如何创建使用SLS Sink Connector,您可通过SLS Sink Connector将数据从云消息队列 Kafka 版实例的数据源Topic导出至日志服务SLS。
使用日志管理查询和分析消息操作日志
您可以使用云消息队列 Confluent 版的日志管理功能将云消息队列 Confluent 版实例的消息操作日志推送到日志服务。您可通过开通该服务,查询客户端的所有请求日志。
设置日志收集至Kafka
Serverless 应用引擎 SAE(Serverless App Engine)支持将应用实例的标准输出(stdout),以及将应用实例指定路径的日志采集到云消息队列 Kafka 版中。在此基础上,您可以结合自身的业务场景,将Kafka的数据投递到例如Elasticsearch等其他持久化库中,便于集中管理和分析日志。本文介绍在SAE控制台设置日志收集到Kafka的使用场景、操作步骤与采集格式...
【Kafka】Kafka 的日志保留期与数据清理策略
在 Kafka 中,日志保留期和数据清理策略是控制消息保存和删除的重要参数。通过这些参数,可以有效管理磁盘空间,保证 Kafka 集群的性能和可用性。下面我将详细介绍 Kafka 的日志保留期和数据清理策略,并附上相关的示例代码。 1. 日志保留期(Log Retention) 日志保留期指的是 Kafka 中消...
创建SLS Source Connector将数据从SLS导出至Kafka
本文介绍如何通过创建SLS Source Connector,通过事件总线EventBridge将数据从日志服务SLS导出至云消息队列 Kafka 版实例的Topic。
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。