文章 2018-03-21 来自:开发者社区

Flume - Kafka日志平台整合

1. Flume介绍 Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。 agent agent本身是一个Java进程,运行在日志收集节点—所谓日志收集节点就是服务器节点。 agent里面包含3个核心的组件:...

问答 2018-03-18 来自:开发者社区

Log Service Loghub & Kafka 概念映射

Log Service Loghub & Kafka 概念映射

文章 2018-02-10 来自:开发者社区

CentOS6.9安装Filebeat监控Nginx的访问日志发送到Kafka

一、下载地址: 官方:https://www.elastic.co/cn/downloads/beats/filebeat 百度云盘:https://pan.baidu.com/s/1dvhqb0   二、安装 tar zxvf filebeat-6.2.1-linux-x86_64.tar.gz mv filebeat-6.2.1-linux-x86_64 filebeat 也可yum...

文章 2018-02-06 来自:开发者社区

JavaWeb项目架构之Kafka分布式日志队列

架构、分布式、日志队列,标题自己都看着唬人,其实就是一个日志收集的功能,只不过中间加了一个Kafka做消息队列罢了。 kafka介绍 Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一.....

文章 2017-11-28 来自:开发者社区

ELK实时日志分析平台(elk+kafka+metricbeat)-KAFKA(二)

一、kafka搭建 建立elk目录:mkdir /usr/loca/elk 安装zookeeper: 192.168.30.121: 192.168.30.122: 192.168.30.123: 3. kafka安装:     a. 192.168.30.121         &nbs...

ELK实时日志分析平台(elk+kafka+metricbeat)-KAFKA(二)
文章 2017-11-27 来自:开发者社区

ELK实时日志分析平台(elk+kafka+metricbeat)-kibana部署(六)

解压(192.168.30.121上执行): tar -zxf /opt/soft/newelk/kibana-5.5.1-linux-x86_64.tar.gz -C ./ mv kibana-5.5.1-linux-x86_64 kibana 修改配置文件: #cat>kibana/config/kibana.yml<<EOF server.port: 5601 ser...

ELK实时日志分析平台(elk+kafka+metricbeat)-kibana部署(六)
文章 2017-11-27 来自:开发者社区

ELK实时日志分析平台(elk+kafka+metricbeat)-elasticsearch部署(五)

192.168.30.121,192.168.30.122,192.168.30.123上配置elasticsearch集群: 在所有主机上添加elk用户 在所有主机上解压elasticsearch,并更改属主,组: 修改192.168.30.121配置文件: #cat>elasticsearch/config/elasticsearch.yml<<EOF cl...

ELK实时日志分析平台(elk+kafka+metricbeat)-elasticsearch部署(五)
文章 2017-11-20 来自:开发者社区

Kafka实战-实时日志统计流程

1.概述   在《Kafka实战-简单示例》一文中给大家介绍来Kafka的简单示例,演示了如何编写Kafka的代码去生产数据和消费数据,今天给大家介绍如何去整合一个完整的项目,本篇博客我打算为大家介绍Flume+Kafka+Storm的实时日志统计,由于涉及的内容较多,这里先给大家梳理一个项目的运用这些技术的流程。下面是今天的内容目录: 项目流程 Flume Kafka Storm   下面...

Kafka实战-实时日志统计流程
文章 2017-11-15 来自:开发者社区

ELK日志服务使用-kafka传输日志(bbotte.com)

对于日志传输,rsyslog或者logstash也就够用了,一般的redis,kafka,主要是作为缓冲或序列防止logstash挂掉后,日志中断,下面写kafka的使用。 在用kafka之前,需要rsyslog模块支持,所以需要对rsyslog升级,并且启用omkafka,下面对rsyslog升级同时加入omhiredis: 下载https://github.com/rsyslog/rsys.....

文章 2017-11-12 来自:开发者社区

ELK-filebeat收集日志到Kafka,并转存ES

场景需求 在有些不需要安装java环境的服务器如Nginx,php等为主的web 应用可以使用filebeat来对这些服务日志进行收集。 Filebeat用于收集本地文件的日志数据。 它作为服务器上的代理安装,Filebeat监视日志目录或特定的日志文件,尾部文件,并将它们转发到Elasticsearch或Logstash进行索引。 logstash 和filebeat都具有日志收集功能,fil....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云日志服务SLS

SLS是一站式云原生可观测性数据平台,一站式提供数据采集、加工、查询与分析、可视化等功能。日常更新产品最新动态,最佳实践以及技术大咖的观点和经验。

+关注