flink cdc写hdfs文件的时候,如果开启文件合并的话,最终的文件不能通过hive映射读取吗?
flink cdc写hdfs文件的时候,文件格式设置为parquet,压缩方式为GZIP,如果开启文件合并的话,最终的文件不能通过hive映射读取,这个怎么解决啊?
Flink SQL FileSystem Connector 分区提交与自定义小文件合并策略
作者:LittleMagic 之前笔者在介绍 Flink 1.11 Hive Streaming 新特性时提到过,Flink SQL 的 FileSystem Connector 为了与 Flink-Hive 集成的大环境适配,做了很多改进,而其中最为明显的就是分区提交(partition commit)机制。 本文先通过源码简单过一下分区提交机制的两个要素——即触发(trigger)和策略(p....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
实时计算 Flink版您可能感兴趣
- 实时计算 Flink版云原生
- 实时计算 Flink版分析
- 实时计算 Flink版实战
- 实时计算 Flink版平台
- 实时计算 Flink版分布式
- 实时计算 Flink版实践
- 实时计算 Flink版后端
- 实时计算 Flink版TaskManager
- 实时计算 Flink版rocksdb
- 实时计算 Flink版重启
- 实时计算 Flink版CDC
- 实时计算 Flink版数据
- 实时计算 Flink版SQL
- 实时计算 Flink版mysql
- 实时计算 Flink版报错
- 实时计算 Flink版同步
- 实时计算 Flink版任务
- 实时计算 Flink版flink
- 实时计算 Flink版实时计算
- 实时计算 Flink版版本
- 实时计算 Flink版oracle
- 实时计算 Flink版kafka
- 实时计算 Flink版表
- 实时计算 Flink版配置
- 实时计算 Flink版产品
- 实时计算 Flink版Apache
- 实时计算 Flink版设置
- 实时计算 Flink版作业
- 实时计算 Flink版模式
- 实时计算 Flink版数据库