问答 2024-05-20 来自:开发者社区

我这边flink sql任务设置了SET 请问怎么 还是全量读取数据呢?

我这边flink sql任务设置了SET 'table.exec.state.ttl' = '24h' 后,从savepoint恢复任务,请问怎么 还是全量读取数据呢? 去掉ttl设置后 从savepoint恢复 则执行正常

问答 2023-10-06 来自:开发者社区

OceanBase数据库sql执行时,哪个方法是从磁盘读取数据,并放到ObResultSet中的呢?

OceanBase数据库sql执行时,会将查询结果存到ObResultSet结构中,再返回给调用者。在哪个方法中,从磁盘读取数据,并放到ObResultSet中的呢,是在ObSql::code_generate中吗?

问答 2023-09-06 来自:开发者社区

请问有flink sql 1.15 从kafka读取数据然后写入clickhouse的示例代码吗

环境说明:flink sql 1.15 on yarn 模式 现在需要去读取kafka的数据,然后写入clickhouse。 请问有示例代码,包括pom.xml文件中需要添加哪些信息吗? 主要是想问下sink表怎么建,pom文件怎么引入依赖

问答 2023-05-17 来自:开发者社区

ADB中有没有高性能读取数据的sql?

ADB中有没有高性能读取数据的sql?

文章 2023-01-14 来自:开发者社区

spark2 sql读取数据源编程学习样例2:函数实现详解

这里接着上篇,继续阅读代码,下面我们看看runBasicParquetExample函数的功能实现runBasicParquetExample函数private def runBasicParquetExample(spark: SparkSession): Unit = { // $example on:basic_parquet_example$ // Encoders for ...

spark2 sql读取数据源编程学习样例2:函数实现详解
文章 2023-01-14 来自:开发者社区

spark2 sql读取数据源编程学习样例1

作为一个开发人员,我们学习spark sql,最终的目标通过spark sql完成我们想做的事情,那么我们该如何实现。这里根据官网,给出代码样例,并且对代码做一些诠释和说明。/* * Licensed to the Apache Software Foundation (ASF) under one or more * contributor license agreements. See...

spark2 sql读取数据源编程学习样例1
问答 2021-12-08 来自:开发者社区

MaxCompute SQL中的SELECT操作从表中读取数据,列表达式的形式有哪些?

MaxCompute SQL中的SELECT操作从表中读取数据,列表达式的形式有哪些?

问答 2021-12-03 来自:开发者社区

flink1.11 sql ddl 连接kafka读取数据,使用事件时间窗口,无法触发,相同的sql

您好,请教您一个问题 flink1.11 sql ddl连接kafka,使用事件事件,无法触发窗口,使用process_time系统时间就可以正常触发 create table kafka_table ( log_id  string, event_date timestamp(3), process_time as PROCTIME(), ts as event_date, water...

问答 2020-05-21 来自:开发者社区

我想要实现从pg数据库读取数据,麻烦问下用flink sql client连接pg数据 #Flink

我想要实现从pg数据库读取数据,麻烦问下用flink sql client连接pg数据库,总是报NoMatchingTableFactoryException:Could not find a suitable table factory for 'org.apache.flink.table.factories.TableSourceFactory' in the classpath,可能是哪....

问答 2016-06-13 来自:开发者社区

VC下SQL语句读取数据表中第n个记录数据

select 列名 from 表单 语句取出的是一整列,现在想取出这一例的第n个数据,不知道如何读出不使用 select 列名 from 表单 where 列名 = 对应值

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

数据库

分享数据库前沿,解构实战干货,推动数据库技术变革

+关注