问答 2024-10-29 来自:开发者社区

flink cdc paimon设置了file.format为parquet但生成的文件依然是orc

问题描述 我在使用Flink + Flink cdc + Paimon + oss 做数据同步,在cdc的yaml里指定了paimon的文件格式是parquet,但生成的文件依然是默认的文件格式orc,请问是什么原因? 软件版本 Flink :1.18.1Flink CDC : 3.1.0Paimon: 0.8.0 cdc yaml source: type: mysql name: M...

问答 2024-06-11 来自:开发者社区

Flink语法验证报错Illegal mixing of types in CASE or C...

Flink语法验证报错Illegal mixing of types in CASE or COALESCE statement

问答 2024-06-03 来自:开发者社区

Flink消费kafka怎么写ORC文件

Flink消费kafka怎么写ORC文件

文章 2024-02-25 来自:开发者社区

Flink报错问题之写orc报错如何解决

问题一:flink使用多个keytab的情况怎么处理? 你好,我在使用flink run提交任务时,由于集群是kerberos化的Hadoop集群,我想为不同的用户提供不同的keytab进行认证,但是我在flink-conf.yaml中看到了的security.kerberos.login.keytab和security.kerberos.login.principal的相关配置,但是这...

问答 2023-04-23 来自:开发者社区

Flink中ORC文件,HIVE怎么去建表,有知道吗?

Flink中ORC文件,HIVE怎么去建表,有知道吗?

问答 2021-12-08 来自:开发者社区

Flink ORC 读取问题

Flink版本为1.9.0,基于OrcTableSource进行ORC文件的读取,碰到一个问题,程序没有任何异常,顺利执行完毕,但又部分字段读出来始终为null,但实际是有值得,通过直接读取文件的方式可以读取到全部字段。 请问大家是否有什么好的建议,谢谢!*来自志愿者整理的flink邮件归档

问答 2021-12-07 来自:开发者社区

使用flink sql写到orc文件,以后,flink能读取出来

使用flink sql写到orc文件,以后,flink能读取出来,但是spark和hive均不能读取出来,impala能读取。 *来自志愿者整理的flink邮件归档

问答 2021-12-07 来自:开发者社区

flink orc与hive2.1.1版本冲突怎么解决?

使用版本是flink 1.11 Hive 2.1.1 flink sql写到orc后,创建外部表发现无法正常读取,这个怎么解决,各位大佬? *来自志愿者整理的flink邮件归档

问答 2021-12-07 来自:开发者社区

flink-1.11.1 Table API /SQL 无法写入hive orc表怎么办?

Hi all, 我基于flink 1.11 + hadoop 3.0.0 + hive 2.1.1 , flink on yarn模式,在streaming job上的Table API上执行flink sql实时写入hive表。 根据文档 https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/hive/...

问答 2021-12-06 来自:开发者社区

flink 1.11.2写hive 2.1.1 orc 遇到的问题

flink 版本1.11.2 hive 版本2.1.1 基于cdh 6.2.1 写普通表或parquet没问题,写orc报如下错误: http://apache-flink.147419.n8.nabble.com/file/t1150/flink_hive%E5%8C%85%E5%86%B2%E7%AA%81.png 也看到其它邮件列表说修改: flink-sql-connector-hiv.....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注