文章 2024-10-14 来自:开发者社区

大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu

点一下关注吧!!!非常感谢!!持续更新!!! 目前已经更新到了: Hadoop(已更完) HDFS(已更完) MapReduce(已更完) Hive(已更完) Flume(已更完) Sqoop(已更完) Zookeeper(已更完) HBase(已更完) Redis (已更完) Kafka(已更完) ...

大数据-148 Apache Kudu 从 Flink 下沉数据到 Kudu
阿里云文档 2024-09-09

Apache Log4j 0Day安全漏洞公告说明

近日,阿里云计算有限公司发现阿帕奇Log4j2组件存在远程代码执行漏洞,并将漏洞情况告知阿帕奇软件基金会。本文为您介绍该漏洞的影响范围及相应的客户侧和云服务侧的安全建议。

阿里云文档 2024-08-21

在挂载文件存储HDFS版的Hadoop集群上安装及使用ApacheFlink

本文介绍如何在挂载文件存储 HDFS 版的Hadoop集群上安装及使用Apache Flink。

文章 2024-08-06 来自:开发者社区

震撼来袭!Apache Flink:实时数据流处理界的超级巨星,开启全新纪元,让你的数据飞起来!

随着大数据时代的全面到来,企业对数据处理的需求日益增长,尤其是对实时数据流的处理能力提出了更高的要求。Apache Flink,作为一款开源的流处理框架,凭借其高性能、高可靠性和易用性,逐渐成为了实时数据流处理领域的佼佼者,引领着行业的新纪元。 Apache Flink的核心优势在于其能够同时处理有界和无界数据流...

文章 2024-06-12 来自:开发者社区

使用Apache Flink实现MySQL数据读取和写入的完整指南

1. 导言: Apache Flink是一款功能强大的流式处理引擎,可用于实时处理大规模数据。本文将介绍如何使用Flink与MySQL数据库进行交互,以清洗股票数据为例。 2. 环境准备: 首先,确保已安装Apache Flink并配置好MySQL数据库。导入相关依赖包,并创建必要的Table。同时需要提前创建好mysql表,一行source表,一张sink表。 ...

使用Apache Flink实现MySQL数据读取和写入的完整指南
文章 2024-05-23 来自:开发者社区

实时计算 Flink版操作报错之Apache Flink中的SplitFetcher线程在读取数据时遇到了未预期的情况,该怎么解决

问题一:Flink CDC跑联表任务时候,程序的内存会慢慢增大,这个报错是因为什么呢? Flink CDC跑联表任务时候,程序的内存会慢慢增大,达到4G左右的时候会突然降到300M,同时jobmanager日志里显示有报错ERROR org.apache.flink.runtime.rest.handler.taskmanager.TaskManagerStdoutFileHa...

实时计算 Flink版操作报错之Apache Flink中的SplitFetcher线程在读取数据时遇到了未预期的情况,该怎么解决
文章 2023-12-07 来自:开发者社区

Apache Flink消费Kafka数据时,可以通过设置`StreamTask.setInvokingTaskNumber`方法来实现限流

Apache Flink消费Kafka数据时,可以通过设置StreamTask.setInvokingTaskNumber方法来实现限流。这个方法可以设置每个并行任务消费的分区数,从而控制数据消费的速度。 以下是一个简单的示例,展示了如何在Flink的消费源中设置限流: StreamExecutionEnvironment env =...

文章 2023-12-06 来自:开发者社区

Apache Flink目前不支持直接写入MaxCompute,但是可以通过Hive Catalog将Flink的数据写入Hive表

Apache Flink目前不支持直接写入MaxCompute,但是可以通过Hive Catalog将Flink的数据写入Hive表,然后再通过Hive与MaxCompute的映射关系将数据同步到MaxCompute。 首先,你需要在Flink中配置Hive Catalog,然后创建一个Hive表,这个表的存储位置指向MaxC...

文章 2023-11-09 来自:开发者社区

Apache Flink在处理Kafka数据时遇到的问题

你的问题是关于Apache Flink在处理Kafka数据时遇到的问题,具体表现为HDFS文件写入失败。这个错误的原因是HDFS集群没有足够的datanode来满足文件的写入要求。 错误消息提示“File /flink/yarn/ha/default/blob/job_d8abd7d1c158e3ed63a553ee04175a81/blob_p-143fd61770897b489...

问答 2022-02-15 来自:开发者社区

Apache Flink中流式数据的特点有哪些呀?

Apache Flink中流式数据的特点有哪些呀?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注
相关镜像