问答 2023-10-31 来自:开发者社区

Flink CDC代码消费kafka的数据,但是看不到数据量?

Flink CDC代码消费kafka的数据,flink的web界面有stout的输出有显示,到但是看不到数据量?

问答 2023-10-31 来自:开发者社区

运行flink代码消费kafka数据,idea正常能跑,就报这个错?

运行flink代码消费kafka数据,idea正常能跑,但是打包jar包提交任务到Flink的webui界面,就报这个错?。。。Caused by: java.util.concurrent.CompletionException: org.apache.flink.runtime.jobmanager.scheduler.NoResourceAvailableException: Could ....

问答 2023-09-05 来自:开发者社区

同样的kafka配置,用java的示例代码能走通,用c#代码走不通;求大神告知一下怎么解决

c# 代码一直报:证书验证失败:无法验证broker证书,请验证是否正确配置了SSL.ca.location或安装了根ca证书(将broker的ca证书添加到Windows根证书存储中) 配置如下:消息对象kafka配置:专业版(高写版)后付费公网/VPC实例高效云盘配置了SASL用户,给Topic配置了权限

问答 2023-08-02 来自:开发者社区

哪位大佬有Flink CDC写入Kafka根据指定key分区的代码?借我模仿一下?

哪位大佬有Flink CDC写入Kafka根据指定key分区的代码?借我模仿一下?

问答 2023-08-01 来自:开发者社区

哪位大佬有flink写入Kafka根据指定key分区的代码?借我模仿一下

问题1:哪位大佬有flink写入Kafka根据指定key分区的代码?借我模仿一下问题2:我用gpt的方案没有实现,也没有报错,您的这个我研究一下

问答 2023-06-11 来自:开发者社区

Flink CDC on yarn时,代码里使用了kafka producer,如果用模式提交,会?

Flink CDC on yarn时,代码里使用了kafka producer,如果用application模式提交,会遇到StringDeserializer not found的问题,如果用per-job模式提交就正常,这是啥情况?

问答 2023-05-23 来自:开发者社区

请教个问题 Flink中同一套代码本地指定时间戳消费kafka没有问题,集群消费kafka只能从最?

请教个问题 Flink中同一套代码本地指定时间戳消费kafka没有问题,集群消费kafka只能从最新开始消费,时间戳没有生效,kafka都是同一个?我改一下看看,集群时区跟本地一致吗?

问答 2023-05-03 来自:开发者社区

使用原生的mq发到kafka,binlog日志的数据为什么没有偏移量信息。。写代码的时候可以拿到偏移

如题,之前写过代码试过拿binlog日志,可以拿到该条binlog日志的偏移量。但是使用原生的mq发送到kafka里时候,只有数据操作的一些信息,没有这条信息在binlog的偏移量。 原提问者GitHub用户everior

问答 2023-04-28 来自:开发者社区

请问flink 相同key写入kafka同一个分区有资料吗?或者代码

请问flink 相同key写入kafka同一个分区有资料吗?或者代码

文章 2023-02-18 来自:开发者社区

基于SpringBoot + MyBatis + Caffeine + Redis + MySql + Kafka实现一个论坛网站 附完整代码

功能梳理普通用户权限:支持站内账号登录,QQ 登录和 GitHub 账号登录(一键登录,方便快捷)支持发布帖子,可以添加自定义标签,支持 Markdown 格式,同时编辑页面提供目录索引支持用户编辑自己发布帖子支持点赞帖子,评论帖子,对评论进行评论,对评论进行点赞,当用户的帖子或者评论被点赞或评论时,会通过站内信通知用户查看帖子详情页面时,可以同时看到论坛的热门帖,以及相关的帖子(通过标签匹配获....

基于SpringBoot + MyBatis + Caffeine + Redis + MySql + Kafka实现一个论坛网站 附完整代码

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云消息队列

涵盖 RocketMQ、Kafka、RabbitMQ、MQTT、轻量消息队列(原MNS) 的消息队列产品体系,全系产品 Serverless 化。RocketMQ 一站式学习:https://rocketmq.io/

+关注