问答 2022-08-31 来自:开发者社区

在 Flink 中,很多地方都涉及到本地磁盘的读写,比如日志输出、RocksDB 读写、批 任务 s

在 Flink 中,很多地方都涉及到本地磁盘的读写,比如日志输出、RocksDB 读写、批任务 shuffle 等。那么该如何处理来减小影响?

问答 2022-07-28 来自:开发者社区

通过flink消费hologres的binlog对表的读写有没有影响的?

通过flink消费hologres的binlog对表的读写有没有影响的?

问答 2022-05-13 来自:开发者社区

在实时数仓的解决方案中,怎样凭借 Flink 的流式处理优势做到实时读写 Hive?

在实时数仓的解决方案中,怎样凭借 Flink 的流式处理优势做到实时读写 Hive?

文章 2022-05-06 来自:开发者社区

重磅!解锁Apache Flink读写Apache Hudi新姿势

1. 背景Apache Hudi 是目前最流行的数据湖解决方案之一,Data Lake Analytics 集成了 Hudi 服务高效的数据 MERGE(UPDATE/DELETE)场景;AWS 在 EMR 服务中 预安装 了 Apache Hudi,为用户提供高效的 record-level updates/deletes 和高效的数据查询管理;Uber 已经稳定运行 Apache Hudi ....

重磅!解锁Apache Flink读写Apache Hudi新姿势
问答 2021-12-07 来自:开发者社区

flink sql 读写写kafka表的时候可以指定消息的key吗

  flink sql 写kafka表的时候可以指定消息的key吗? 看官网的kafka connector没有找到消息key相关的说明 如果可以的话,如何指定?  谢谢 *来自志愿者整理的flink邮件归档

问答 2021-12-06 来自:开发者社区

Flink 1.11.2 读写Hive以及对hive的版本支持

我这面在flink中注册hivecatalog,想将kafka数据流式写入到hive表中,但是现在建立kafka表的时候默认会保存元数据到hive表,请问有办法不保存这个kafka元数据表吗?如果不注册hivecatalog的话没办法写数据到hive吧。。。。 *来自志愿者整理的flink邮件归档

问答 2021-12-03 来自:开发者社区

Flink读写kafka数据聚集任务失败问题

大家好,请教一下,flink任务读取kafka数据进行聚集操作后将结果写回kafka,flink版本为1.8.0。任务运行一段时间后出现如下异常,之后flink任务异常挂掉,请问一下这个问题该如何解决呢?多谢 2020-02-19 10:45:45,314 ERROR org.apache.flink.runtime.io.network.netty.PartitionRequestQueue.....

问答 2021-12-02 来自:开发者社区

Flink 1.11.2 读写Hive以及对hive的版本支持

Flink.11.2操作hive时,对hive的版本支持是怎样的 看官网介绍是支持1.0、1.1、1.2、2.0、2.1、2.2、2.3、3.1 我的执行环境: Flink : 1.11.2 Haoop : 2.6.0-cdh5.8.3 Hive : 1.1.0-cdh5.8.3 Job运行方式 : on yarn 同时对读写hive的demo,我不知道我写的是否正确: public s...

问答 2021-12-01 来自:开发者社区

请问flink 什么时候支持读写ACID的hive表?

我们使用 flink.1.12 读取 ACID hive table 时报错(Reading or writing ACID table %s is not supported),我们尝试修改源码放开这个限制也会出现后续的一些错误如(cast转换 BytesColumnVector 为 LongColumnVector 出错)。 背景:目前我们生产想采用 flink 做 ETL 等数据迁移工作,....

问答 2021-12-01 来自:开发者社区

flink sql-client 读写 Kerberos认证的hive问题?

您好! hive.metastore.sasl.enabled 是true 启动sql client的时候,可以正常读取到认证信息,并读取metastore的表名。 读和写,认证就失败了。*来自志愿者整理的flink邮件归档

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注