文章 2024-07-18 来自:开发者社区

MaxCompute产品使用合集之没有数据源,只是将批量状态和时间写入Oracle表里,该如何操作

问题一:如何合理设置MaxCompute在开发与生产环境中的内存大小? 如何合理设置MaxCompute在开发与生产环境中的内存大小? 参考回答: 公共资源组没办法看有多大内存。 可以按照需求来调整配置,如果跑的慢可以加一些。你上面的SQLjoin有热点值,加skew join参数来节省一些时间。 ...

MaxCompute产品使用合集之没有数据源,只是将批量状态和时间写入Oracle表里,该如何操作
文章 2024-07-16 来自:开发者社区

实时计算 Flink版产品使用问题之如何对接Oracle数据源

问题一:flink流式读取iceberg upsert primary key 表失败,只一次读取 flink流式读取iceberg upsert primary key 表失败,只第一次一次读取,是否是现在不支持读取,flink版本1.16.2,iceberg 1.3.1 参考答案: Apache Flink 1.16.2 版本与 Apache Ic...

实时计算 Flink版产品使用问题之如何对接Oracle数据源
文章 2024-07-16 来自:开发者社区

实时计算 Flink版产品使用问题之在online模式下增量抓取Oracle数据时,在archive_log切换时,出现数据丢失的情况,是什么原因

问题一:flink1.17.1 cdc 2.4.2也有这个问题呢? flink1.17.1 cdc 2.4.2也有这个问题呢?cdc拿到数据后,时间少了两个00 参考答案: 你可以自定义下debe...

实时计算 Flink版产品使用问题之在online模式下增量抓取Oracle数据时,在archive_log切换时,出现数据丢失的情况,是什么原因
文章 2024-06-30 来自:开发者社区

DataWorks产品使用合集之如何实现数据集成接入提供ODBC API的Oracle数据库

问题一:dataworks的数据集成可以介入odbc api 的数据吗? dataworks的数据集成可以介入odbc api 的数据吗? 参考回答: 目前只支持jdbc链接呀 或者看下restap...

DataWorks产品使用合集之如何实现数据集成接入提供ODBC API的Oracle数据库
文章 2024-06-30 来自:开发者社区

DataWorks产品使用合集之datax解析oracle增量log日志该如何操作

问题一:dataworks这边昨天有个py3任务,平时是跑几分钟的,但是昨天跑了15个小时,如何解决? dataworks这边昨天有个py3任务,平时是跑几分钟的,但是昨天跑了15个小时,如何解决? 参考回答: "建议先给周期任务配置一下智能监控规则 长时间未运行完成触发告警 即使处理 再观察看下是否是高频现象 ...

DataWorks产品使用合集之datax解析oracle增量log日志该如何操作
文章 2024-06-16 来自:开发者社区

实时计算 Flink版产品使用问题之如何对oracle进行修改op对值类型

问题一:Flink CDC有没有遇到将pg number 类型解析出来是这个值的? Flink CDC有没有遇到将pg number 类型解析出来是这个值的? ...

实时计算 Flink版产品使用问题之如何对oracle进行修改op对值类型
文章 2024-06-16 来自:开发者社区

实时计算 Flink版产品使用问题之如何进行Oracle到HBase的同步

问题一:现在用的2.3.0的Flink CDC,从oracle同步到hbase,不知道哪种方式好些? 现在用的2.3.0的Flink CDC,从oracle同步到hbase,不知道哪种方式好些? 参考答案: 那你只能写ds,一个source接入,写出 ,ds写hbase 可以做到一个sink 关于本问题的更多回答可点击进行查...

文章 2024-06-16 来自:开发者社区

实时计算 Flink版产品使用问题之如何读取oracle中的blob类型的数据

问题一:flink cdc 能对pgsql做增量数据抽取吗?有参考指导一下吗? flink cdc 能对pgsql做增量数据抽取吗?有参考指导一下吗? 参考答案: 支持,使用Incremental Snapshot的 latest-offset 。参考: https://apache.github.io/flink-cdc/master/con...

实时计算 Flink版产品使用问题之如何读取oracle中的blob类型的数据
文章 2024-06-16 来自:开发者社区

实时计算 Flink版产品使用问题之在进行Oracle数据库的全量同步时,只同步了一条数据而源表实际上包含多条数据,是什么原因

问题一:FlinkCDC源表为oracle表时,使用initial方式全量同步时,只同步过来一条数据 FlinkCDC源表为oracle表时,目标表也是oracle表,使用initial方式全量同步时,只同步过来一条数据,其实源表有很多条数据,请问是因为啥呢? 参考答案: FlinkCDC在进行全量同步时只同步了源表的一条数据,可能的原因有以下几点: ...

实时计算 Flink版产品使用问题之在进行Oracle数据库的全量同步时,只同步了一条数据而源表实际上包含多条数据,是什么原因
文章 2024-06-16 来自:开发者社区

实时计算 Flink版产品使用问题之同步oracle表时,数据量约800万,检查点异常,该如何排查

问题一:Flink CDC 里像以Rowid创建的物化视图如果用cdc同步呢? Flink CDC 里像以Rowid创建的物化视图如果用cdc同步呢? 参考答案: 配置 Debezium:Debez...

实时计算 Flink版产品使用问题之同步oracle表时,数据量约800万,检查点异常,该如何排查

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

相关镜像