实时计算 Flink版操作报错之使用oracle-cdc的,遇到错误:ORA-01292: no log file has been specified for the current LogMiner session,该如何处理

实时计算 Flink版操作报错之使用oracle-cdc的,遇到错误:ORA-01292: no log file has been specified for the current LogMiner session,该如何处理

问题一:Flink CDC没有冲突的地方,报错找不到,去哪找呢? Flink CDC没有冲突的地方,报错找不到,去哪找呢? 参考回答: 目前yaml的方式好像只支持mysql到doris跟StarR...

[帮助文档] PolarDB PostgreSQL版连接器

本文为您介绍如何使用PolarDB PostgreSQL版(Oracle语法兼容1.0)连接器。

基于阿里云Hologres&Flink实时计算平台搭建数据仓库(实时)

23 课时 |
303 人已学 |
免费

实时数据分析:使用Flink实时发现最热Github项目

1 课时 |
909 人已学 |
免费

实时数据接入:5分钟上手 Flink MySQL 连接器

1 课时 |
494 人已学 |
免费
开发者课程背景图

flink oracle cdc里创建的LOG_MINING_FLUSH表是干什么用的?

版本:2.4.1 我发现flink oracle cdc里会创建一个LOG_MINING_FLUSH表,并持续写入CURRENT_SCN。我在代码里没有找到读LOG_MINING_FLUSH这个表的地方,什么时候会读这个表呢?如果只写不读的话维护这个表是做什么的呢? 由于目前只有oracle备库的只...

开启Flink CDC任务后,Oracle下面出现大量log. Xml文件,增长很快,这个怎么处理?

开启Flink CDC任务后,Oracle下面出现大量log. Xml文件,增长很快,这个怎么处理?

Flink CDC中oracle 19c不知道支持怎么样,但如果log日志过大的话会出现任务失败的?

问题1:Flink CDC中oracle 19c不知道支持怎么样,但如果log日志过大的话会出现任务失败的情况,我们产品是对cdc做了封装的哈是遇到了oracle cdc 同步任务失败的情况,可以仅供参考下 ? 问题2:这样啊,必须改源码吗,有没有什么参数可以控制它内存的呀

flink cdc for oracle select * from flinkuser.log_m

flink cdc for oracle select * from flinkuser.log_mining_flush这个表数据SCN到当前位置了。但是目标端延迟几个小时,怎么排查是不是目标端写入慢还是源端

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

阿里云实时计算Flink
阿里云实时计算Flink
一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。
199203+人已加入
加入
相关电子书
更多
基于 Flink SQL + Paimon 构建流式湖仓新方
基于 Flink CDC 打造 企业级实时数据集成方案
李劲松|Flink Table Store 典型应用场景
立即下载 立即下载 立即下载

实时计算 Flink版oracle相关内容

实时计算 Flink版更多oracle相关