如何创建SLS Sink Connector
本文介绍如何创建使用SLS Sink Connector,您可通过SLS Sink Connector将数据从云消息队列 Kafka 版实例的数据源Topic导出至日志服务SLS。
使用日志管理查询和分析消息操作日志
您可以使用云消息队列 Confluent 版的日志管理功能将云消息队列 Confluent 版实例的消息操作日志推送到日志服务。您可通过开通该服务,查询客户端的所有请求日志。
设置日志收集至Kafka
Serverless 应用引擎 SAE(Serverless App Engine)支持将应用实例的标准输出(stdout),以及将应用实例指定路径的日志采集到云消息队列 Kafka 版中。在此基础上,您可以结合自身的业务场景,将Kafka的数据投递到例如Elasticsearch等其他持久化库中,便于集中管理和分析日志。本文介绍在SAE控制台设置日志收集到Kafka的使用场景、操作步骤与采集格式...
创建SLS Source Connector将数据从SLS导出至Kafka
本文介绍如何通过创建SLS Source Connector,通过事件总线EventBridge将数据从日志服务SLS导出至云消息队列 Kafka 版实例的Topic。
CentOS6.9安装Filebeat监控Nginx的访问日志发送到Kafka
一、下载地址: 官方:https://www.elastic.co/cn/downloads/beats/filebeat 百度云盘:https://pan.baidu.com/s/1dvhqb0 二、安装 tar zxvf filebeat-6.2.1-linux-x86_64.tar.gz mv filebeat-6.2.1-linux-x86_64 filebeat 也可yum...
使用Filebeat采集日志数据,将Kafka作为Filebeat的输出端时需要做什么准备工作?
使用Filebeat采集日志数据,将Kafka作为Filebeat的输出端时需要做什么准备工作?
使用Filebeat采集日志数据,将Kafka作为Filebeat的输出端的操作流程是什么?
使用Filebeat采集日志数据,将Kafka作为Filebeat的输出端的操作流程是什么?
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。