Flink CDC有什么办法或者什么方法可以回滚这种操作之类的吗?

Flink CDC我现在有个这个场景就是监听mysql读出来的数据我会落库到日志表中,但是如果这条数据因为网络原因反正各种原因抛出了异常,虽然有重新执行机制但是有次数限制,打比方3次执行完3次都异常然后监听会停止,这个时候我重新启动监听,那么他不会读我异常的这条数据,而是继续读取新的数据,这样就永远...

Flink CDC有什么实时数仓开发规范之类的文档推荐一下?

Flink CDC有什么实时数仓开发规范之类的文档推荐一下?

实时数据分析:使用Flink实时发现最热Github项目

1 课时 |
404 人已学 |
免费

实时数据接入:5分钟上手 Flink MySQL 连接器

1 课时 |
204 人已学 |
免费

大数据知识图谱系列—基于ELK+Flink日志全观测最佳实践

1 课时 |
174 人已学 |
免费
开发者课程背景图

在Flink当为多条件组合的时候,是在这个类里面写好吗?

在Flink当为多条件组合的时候,是在这个类里面写好吗?

Flink CDC更适合做报警这类实时性要求高,对数据准确性没有很高要求的?

Flink CDC不用来做多张大表的实时join,理由是状态太大,出问题不好排查,flink更适合做报警这类实时性要求高,对数据准确性没有很高要求的?

flink-cdc 2.4.1 应该搭配什么版本的Flink,现在报guava30找不到类?

flink-cdc 2.4.1 应该搭配什么版本的Flink,现在报guava30找不到类?

Flink CDC有没有知道这个类是哪个包的?

Flink CDC有没有大佬知道这个类是哪个包的?启动提示缺失这个类

实时计算 Flink版连接的时候还是始终报找不到kafkaclient里面的类?

有没有碰到过实时计算 Flink版把connector_kafka和kafkaclient的jar包放进lib下连接的时候还是始终报找不到kafkaclient里面的类?

Flink CDC中sourceRecord 这个类通过什么方法获取?

Flink CDC中sourceRecord 这个类通过什么方法获取?ts_ms -> {Field@13480} "Field{name=ts_ms, index=4, schema=Schema{INT64}}"

Flink CDC这个问题依然没有解决呢,报错的这个类?

Flink CDC这个问题依然没有解决呢,报错的这个类? org.apache.flink:flink-shaded-guava:30.1.1-jre-16.1 com.google.guava:guava:30.1.1-jre都有,jar包都有,就是报

flink打胖jar还是找不到类flink类加载机制是不是跟传统java是反的?

flink打胖jar还是找不到类flink类加载机制是不是跟传统java是反的?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里云实时计算Flink
阿里云实时计算Flink
一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。
199198+人已加入
加入
相关电子书
更多
基于 Flink SQL + Paimon 构建流式湖仓新方
基于 Flink CDC 打造 企业级实时数据集成方案
李劲松|Flink Table Store 典型应用场景
立即下载 立即下载 立即下载