文章 2024-10-14 来自:开发者社区

大数据-102 Spark Streaming Kafka ReceiveApproach DirectApproach 附带Producer、DStream代码案例

点一下关注吧!!!非常感谢!!持续更新!!! 目前已经更新到了: Hadoop(已更完) HDFS(已更完) MapReduce(已更完) Hive(已更完) Flume(已更完) Sqoop(已更完) Zookeeper(已更完) HBase(已更完) Redis (已更完) Kafka(已更完) ...

大数据-102 Spark Streaming Kafka ReceiveApproach DirectApproach 附带Producer、DStream代码案例
文章 2024-10-13 来自:开发者社区

大数据-58 Kafka 高级特性 消息发送02-自定义序列化器、自定义分区器 Java代码实现

点一下关注吧!!!非常感谢!!持续更新!!!目前已经更新到了:Hadoop(已更完)HDFS(已更完)MapReduce(已更完)Hive(已更完)Flume&...

大数据-58 Kafka 高级特性 消息发送02-自定义序列化器、自定义分区器 Java代码实现
文章 2024-10-13 来自:开发者社区

大数据-56 Kafka SpringBoot与Kafka 基础简单配置和使用 Java代码 POM文件

点一下关注吧!!!非常感谢!!持续更新!!!目前已经更新到了:Hadoop(已更完)HDFS(已更完)MapReduce(已更完)Hive(已更完)Flume&...

大数据-56 Kafka SpringBoot与Kafka 基础简单配置和使用 Java代码 POM文件
文章 2024-08-22 来自:开发者社区

Kafka生产者同步和异步的JavaAPI代码演示

生产者API文档 http://kafka.apache.org/10/javadoc/index.html?org/apache/kafka/clients/producer/KafkaProducer.html. 版本说明 Kafka 0.10.0.0 及以后的版本,对生产者代码的底层实现进行了重构。 katka.producer.Producer类...

Kafka生产者同步和异步的JavaAPI代码演示
文章 2024-06-30 来自:开发者社区

kafka 磁盘扩容与数据均衡操作代码

一、概述Kafka 的磁盘扩容和数据均衡是与保证Kafka集群可用性和性能相关的两个重要方面。在 Kafka 中,分区数据的存储和平衡对集群的运行至关重要。以下是有关Kafka磁盘扩容和数据均衡的一些建议: 1)Kafka 磁盘扩容概述添加新磁盘:在服务器上添加新的磁盘,确保磁盘有足够的容量,并且其性能符合集群的...

文章 2024-05-23 来自:开发者社区

实时计算 Flink版操作报错之连接外部kafka本地执行测试代码报错如何解决

问题一:Flink CDC编译build都正常,在idea中执行的时候提示这个错误? Flink CDC编译build都正常,在idea中执行的时候提示这个错误? 参考回答: 缺少jar包,flin...

实时计算 Flink版操作报错之连接外部kafka本地执行测试代码报错如何解决
文章 2024-01-04 来自:开发者社区

云消息队列 Kafka 版生态谈第一期:无代码转储能力介绍

作者:娜米云消息队列 Kafka 版为什么需要做无代码转储云消息队列 Kafka 版本身是一个分布式流处理平台,具有高吞吐量、低延迟和可扩展性等特性。它被广泛应用于实时数据处理和流式数据传输的场景。然而,为了将云消息队列 Kafka 版与其他数据源和数据目的地集成,需要额外的开发/组件来实现数据的传输和同步,客户需要大量的研发、运维等投入。为了提升研发效率,云消息队列 Kafka 版联合阿里云产....

云消息队列 Kafka 版生态谈第一期:无代码转储能力介绍
问答 2023-12-29 来自:开发者社区

Flink1.18.0版本连接外部kafka本地执行测试代码报错

版本:Flink1.18.0代码如下:```public static void main(String[] args) { //1、创建TableEnvironment EnvironmentSettings settings = EnvironmentSettings.newInstance().build(); TableEnvironment tEnv = Tab...

问答 2023-12-24 来自:开发者社区

Flink CDC这个cdc到kafka的数据怎么带个T,怎么不用代码处理,不然写不进doris?

Flink CDC这个cdc到kafka的数据怎么带个T,怎么不用代码处理,不然写不进doris?

问答 2023-11-22 来自:开发者社区

我直接用Flink CDC代码消费kafka数据没问题,大家有遇到过这种问题不?

我直接用Flink CDC代码消费kafka数据没问题,但是用flinksql消费kafka数报警告,大家有遇到过这种问题不?2023-11-17 09:45:39 WARN (org.apache.kafka.clients.consumer.ConsumerConfig:logUnused) - The configuration 'partition.discovery.int...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云消息队列

涵盖 RocketMQ、Kafka、RabbitMQ、MQTT、轻量消息队列(原MNS) 的消息队列产品体系,全系产品 Serverless 化。RocketMQ 一站式学习:https://rocketmq.io/

+关注