问答 2022-01-19 来自:开发者社区

基于 Flink CDC 的聚合分析图是什么样的?

基于 Flink CDC 的聚合分析图是什么样的?

问答 2022-01-12 来自:开发者社区

Spark streaming / Flink 通过通道服务拿到实时数据变化,聚合,将统计结果写回到

Spark streaming / Flink 通过通道服务拿到实时数据变化,聚合,将统计结果写回到Tablestore 中sink 表中的架构图是什么样的?

问答 2021-12-09 来自:开发者社区

Flink中数据聚合,不使用窗口怎么实现聚合?

Flink中数据聚合,不使用窗口怎么实现聚合?

问答 2021-12-08 来自:开发者社区

对于 Flink 可撤回流做聚合,当上游数据撤回时,最终聚合值变小了,怎么解决这种问题。

如题*来自志愿者整理的flink邮件归档

问答 2021-12-07 来自:开发者社区

Flink SQL如何将多个表的查询结果(列不同)聚合成一张表

select a.table_tmp1.r1 / a.table_tmp2.r2 这个是对同一行的数据进行操作,所以你需要先对table_tmp1和table_tmp2做一个join,将两个表的数据根据条件合并成一张表。 zilong xiao 于2020年7月8日周三 下午8:55写道: > 列如下面这样,需要查询table1 & table2,分别查询不同的字段 > 在最外...

问答 2021-12-07 来自:开发者社区

flink 聚合 job 重启问题

请教个问题,我通过程序拉取kafka消息后,注册为flink流表。然后执行sql: "select user_id, count(*)cnt from 流表", 将结果写入到mysql 聚合表中(SINK组件为:flink1.11版本JdbcUpsertTableSink)。 但问题是,每次JOB重启后,之前mysql 聚合表结果会被清空。我设置了checkpoint和racksdbbacken....

问答 2021-12-07 来自:开发者社区

flink聚合作业重启问题

大家好 : 请教问题,我通过程序拉取kafka消息后,注册为flink流表。然后执行sql: "select user_id, count(*)cnt from 流表",将结果写入mysql聚合表中(SINK组件为) :flink1.11 版本JdbcUpsertTableSink)。 但问题是,每次JOB重启后,之前mysql聚合表结果会被清空。我设置了检查点和racksdbbackends.....

问答 2021-12-06 来自:开发者社区

flink sql 窗口使用了处理时间滚动窗口方式 但是都是只有5分结束的时候才能把聚合结果输出

我现在遇到有这样一个场景,我们需要实时去统计5分和30分的粒度,flink sql 窗口使用了处理时间滚动窗口方式 但是都是只有5分结束的时候才能把聚合结果输出,这个不满足我们需求,有没有方式可以直接实时输出结果,比如18:02 的统计+1+1 都能直接落在18:00-18:05的窗口上,并每次+1都能实时输出,而不是等到窗口结束才sink 到mysql .30分钟同5分种,这种flink sq....

问答 2021-12-03 来自:开发者社区

Flink 中该如何实现“Group By聚合操作”这个需求?

SQL中对时间窗口和PRODUCT_ID进行了Group By聚合操作,PG数据表中的主键须设置为WINDOW_START /WINDOW_END和PRODUCT_ID,否则无法以upinsert方式写出数据,但是这样却无法满足业务场景的需求,业务上应以RANK_ID +WINDOW_START /WINDOW_END为主键标识,请问Flink 中该如何实现这个需求? 场景:T...

问答 2021-12-03 来自:开发者社区

请问Flink streaming sql是否支持两层group by聚合啊?

我们有个streaming sql得到的结果不正确,现象是sink得到的数据一会大一会小,我们想确认下,这是否是个bug, 或者flink还不支持这种sql。 具体场景是:先group by A, B两个维度计算UV,然后再group by A 把维度B的UV sum起来,对应的SQL如下:(A -> dt, B -> pvareaid) SELECT dt, SUM(a.uv) AS...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注