问答 2022-06-27 来自:开发者社区

请问几个问题: 1. 使用什么 来监控 Flink的运行状态并能通过 钉钉发送告警信息 比较好? 2

请问几个问题: 1. 使用什么 来监控 Flink的运行状态并能通过 钉钉发送告警信息 比较好? 2. 我搜索了一下,大都是推荐 Prometheus 来做。由于我们单位之前的系统都是通 Zabbix 来做的监控,请问 用 Zabbix 来监控Flink 合适吗?

文章 2022-06-13 来自:开发者社区

【实时数仓篇】(04)利用 Flink 实现实时状态复用场景

文章目录一、浅谈实时数仓1.1 实时数仓体系1.2 实时 & 离线二、状态复用场景2.1 问题2.2 解决方案2.2.1 方案一2.2.2 方案二一、浅谈实时数仓整理自:【实时数仓篇】利用 Flink 实现实时状态复用场景讲师:李晨(菜鸟 数据工程师)1.1 实时数仓体系1.2 实时 & 离线TT 类似于Kafka ,选用 TT ,是因为既可以做离线计算的数据源,也可以做实时计算....

【实时数仓篇】(04)利用 Flink 实现实时状态复用场景
文章 2022-06-12 来自:开发者社区

【Flink】(九)状态一致性、端到端的精确一次(ecactly-once)保证2

4.2 事务写入 (Transactional Writes)需要构建事务来写入外部系统,构建的事务对应着 checkpoint,等到 checkpoint 真正完成的时候,才把所有对应的结果写入 sink 系统中。事务 (Transaction)应用程序中一系列严密的操作,所有操作必须成功完成,否则在每个操作中所作的所有更改都会被撤销具有原子性:一个事务中的一系列的操作要么全部成功,要么一个都....

【Flink】(九)状态一致性、端到端的精确一次(ecactly-once)保证2
文章 2022-06-12 来自:开发者社区

【Flink】(九)状态一致性、端到端的精确一次(ecactly-once)保证1

文章目录一、状态一致性1.1 一致性级别1.2 三个级别的区别二、一致性检查点(Checkpoints)三、端到端(end-to-end)状态一致性四、端到端的精确一次(ecactly-once)保证4.1 幂等写入(Idempotent Writes)4.2 事务写入 (Transactional Writes)4.2.1 预写日志(Write-Ahead-Log,WAL)4.2.2 两阶段提....

【Flink】(九)状态一致性、端到端的精确一次(ecactly-once)保证1
文章 2022-06-12 来自:开发者社区

【Flink】(七)状态管理

文章目录一、前言二、有状态的算子和应用程序2.1 算子状态(operator state)2.2 键控状态(keyed state)2.3 键控状态的使用2.4 状态后端(State Backends)2.5 选择一个状态后端三、状态编程一、前言流式计算分为无状态和有状态两种情况。无状态的计算观察每个独立事件,并根据最后一个事件输出结果。例如,流处理应用程序从传感器接收温度读数,并在温度超过 9....

【Flink】(七)状态管理
文章 2022-06-10 来自:开发者社区

Flink 源码:广播流状态源码解析

Broadcast State 是 Operator State 的一种特殊类型。它的引入是为了支持这样的场景: 一个流的记录需要广播到所有下游任务,在这些用例中,它们用于在所有子任务中维护相同的状态。然后可以在处理第二个流的数据时访问这个广播状态,广播状态有自己的一些特性。必须定义为一个 Map 结构。广播状态只能在广播流侧修改,非广播侧不能修改状态。Broadcast State 运行时的状....

Flink 源码:广播流状态源码解析
文章 2022-06-10 来自:开发者社区

Flink 通过 State Processor API 实现状态的读取和写入

大家好,我是 JasonLee。在 1.9 版本之前,Flink 运行时的状态对于用户来说是一个黑盒,我们是无法访问状态数据的,从 Flink-1.9 版本开始,官方提供了 State Processor API 这让用户读取和更新状态成为了可能,我们可以通过 State Processor API 很方便的查看任务的状态,还可以在任务第一次启动的时候基于历史数据做状态冷启动。从此状态对于用户来....

Flink 通过 State Processor API 实现状态的读取和写入
文章 2022-06-07 来自:开发者社区

Flink 状态清除的演进之路

对于流计算程序来说,肯定会用到状态(state),假如状态不自动清除,并且随着作业运行的时间越来越久,就会累积越多越多的状态,就会影响任务的性能,为了有效的控制状态的大小,Flink从1.6.0开始引入了状态的生存时间(TTL)功能,这样就可以实现自动清理状态,控制状态的大小.本文主要介绍一下Flink从1.6.0开始到1.9.1的状态清理不断的演进之路. Flink1.6.0状态清除Apach....

文章 2022-05-26 来自:开发者社区

超越Storm,SparkStreaming——Flink如何实现有状态的计算

流式计算分为无状态和有状态两种情况。无状态计算观察每个独立的事件,Storm就是无状态的计算框架,每一条消息来了以后和前后都没有关系,一条是一条。比如我们接收电力系统传感器的数据,当电压超过240v就报警,这就是无状态的数据。但是如果我们需要同时判断多个电压,比如三相电路,我们判断三相电都高于某个值,那么就需要将状态保存,计算。因为这三条记录是分别发送过来的。Storm需要自己实现有状态的计算,....

超越Storm,SparkStreaming——Flink如何实现有状态的计算

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注