阿里云文档 2025-09-10

如何创建SLS Sink Connector

本文介绍如何创建使用SLS Sink Connector,您可通过SLS Sink Connector将数据从云消息队列 Kafka 版实例的数据源Topic导出至日志服务SLS。

阿里云文档 2025-09-10

使用日志管理查询和分析消息操作日志

您可以使用云消息队列 Confluent 版的日志管理功能将云消息队列 Confluent 版实例的消息操作日志推送到日志服务。您可通过开通该服务,查询客户端的所有请求日志。

阿里云文档 2025-06-27

设置日志收集至Kafka

Serverless 应用引擎 SAE(Serverless App Engine)支持将应用实例的标准输出(stdout),以及将应用实例指定路径的日志采集到云消息队列 Kafka 版中。在此基础上,您可以结合自身的业务场景,将Kafka的数据投递到例如Elasticsearch等其他持久化库中,便于集中管理和分析日志。本文介绍在SAE控制台设置日志收集到Kafka的使用场景、操作步骤与采集格式...

文章 2024-08-25 来自:开发者社区

【Azure 事件中心】开启 Apache Flink 制造者 Producer 示例代码中的日志输出 (连接 Azure Event Hub Kafka 终结点)

问题描述 Azure Event Hub 在标准版以上就默认启用的Kafka终结点,所以可以通过Apache Kafka协议连接到Event Hub进行消息的生产和消费。通过示例代码下载到本地运行后,发现没有 Kafka Producer 的详细日志输出。当查看SDK源码中,发现使用的是 org.slf4j.Logger 输出日志,如: ...

【Azure 事件中心】开启 Apache Flink 制造者 Producer 示例代码中的日志输出 (连接 Azure Event Hub Kafka 终结点)
文章 2024-06-19 来自:开发者社区

go语言并发实战——日志收集系统(三) 利用sarama包连接KafKa实现消息的生产与消费

环境的搭建 Kafka以及相关组件的下载 我们要实现今天的内容,不可避免的要进行对开发环境的配置,Kafka环境的配置比较繁琐,需要配置JDK,Scala,ZoopKeeper和Kafka,这里我们不做赘述,如果大家不知道如何配置环境,这里我们个大家找了一篇博文供大家参考: sarama包的安装 今天我们所时机的内容需要用到go语言的第三方包sarama...

go语言并发实战——日志收集系统(三) 利用sarama包连接KafKa实现消息的生产与消费
阿里云文档 2023-05-25

创建SLS Source Connector将数据从SLS导出至Kafka

本文介绍如何通过创建SLS Source Connector,通过事件总线EventBridge将数据从日志服务SLS导出至云消息队列 Kafka 版实例的Topic。

阿里云文档 2022-12-08

导入Kafka数据到日志服务涉及哪些使用限制

本文介绍导入Kafka数据到日志服务所涉及的使用限制。

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云日志服务SLS

SLS是一站式云原生可观测性数据平台,一站式提供数据采集、加工、查询与分析、可视化等功能。日常更新产品最新动态,最佳实践以及技术大咖的观点和经验。

+关注