问答 2021-12-07 来自:开发者社区

flink 1.10.1 入 hive 格式为parquet

可以提供一份flink1.10 入hive格式为parquet的例子吗?*来自志愿者整理的flink邮件归档

问答 2021-12-06 来自:开发者社区

flink 1.13编译 flink-parquet报错

查看发现 org.apache.avro avro-maven-plugin ${avro.version} generate-sources schema ${project....

问答 2021-12-05 来自:开发者社区

Flink 1.12.2 sql api 使用parquet格式报错

按这篇说明 https://ci.apache.org/projects/flink/flink-docs-release-1.12/dev/table/connectors/formats/parquet.html 添加的依赖, 是需要把 flink-parquet_2.11 文件手动添加到 lib 目录才可以的吗?*来自志愿者整理的flink

问答 2021-12-03 来自:开发者社区

Flink 1.12.2 sql api 使用parquet格式报错了怎么办?

按这篇说明 https://ci.apache.org/projects/flink/flink-docs-release-1.12/dev/table/connectors/formats/parquet.html 添加的依赖, 是需要把 flink-parquet_2.11 文件手动添加到 lib 目录才可以的吗?*来自志愿者整理的FLINK邮件归档

问答 2021-12-02 来自:开发者社区

Flink向量化读取parquet

flink使用的是hadoop中的parquetfilereader,这个貌似不支持向量化读取,hive和spark目前都支持向量化读取,请加一下flink有什么计划吗?*来自志愿者整理的flink邮件归档

问答 2020-08-21 来自:开发者社区

flink 用 parquet的format,除了 引用flink-parquet_2#Flink

flink 用 parquet的format,除了 引用flink-parquet_2.11-1.11.1.jar, 还需要哪些jar打到生产的flink 的lib目录啊#Flink

问答 2019-11-11 来自:开发者社区

flink 写parquet 文件,使用StreamingFileSink<Buyerviewcar

flink 写parquet 文件,使用StreamingFileSink streamingFileSink = StreamingFileSink.forBulkFormat( new Path(path), ParquetAvroWriters.forReflectRecord(BuyerviewcarListLog.class)). withBucketAssigner(buc...

问答 2019-11-11 来自:开发者社区

flink 写parquet格式,使用StreamingFileSink 时报错

flink 写parquet格式,使用StreamingFileSink 时报错java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS and for Hadoop version 2.7 or newer 可有其他解决方案么

问答 2018-12-10 来自:开发者社区

流媒体到parquet文件不匹配flink 1.6.1

我正在尝试创建一个将我的数据源转储到parquet文件的接收器。 我的代码如下: val streamEnv = StreamExecutionEnvironment.getExecutionEnvironmentstreamEnv.setParallelism(1);streamEnv.enableCheckpointing(100, CheckpointingMode.EXACTLY_ONC....

问答 2018-11-28 来自:开发者社区

如何使用Apache Flink读取HDFS中的parquet文件?

我只找到TextInputFormat和CsvInputFormat。那么如何使用Apache Flink在HDFS中读取parquet文件?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云实时计算Flink

一套基于Apache Flink构建的一站式、高性能实时大数据处理平台,广泛适用于流式数据处理、离线数据处理、DataLake计算等场景。

+关注