问答 2022-07-13 来自:开发者社区

一个kafka的topic,可以根据某个字段的不同,创建多个stream吗

一个kafka的topic,可以根据某个字段的不同,创建多个stream吗

问答 2022-07-10 来自:开发者社区

请教个问题 ,把mysql timestamp类型的字段收集到kafka后变为 2021-06-16

请教个问题 ,把mysql timestamp类型的字段收集到kafka后变为 2021-06-16T00:29:46Z 这种格式的字符串,如果我想把这个数据同步到mysql中类型还是timestamp,我应该怎么处理

问答 2021-12-07 来自:开发者社区

kafka topic字段 不全的统计场景

大佬们,现在我有个场景: 一个kafka 主题 有 4个字段 , id, field2, field3, field4,其中id 是唯一标识, 但是有个问题是,并不是每个消息都会带上全量的字段消息,只有id是固有的字段。然后需要把id, field2, field3, field4 作为一个维度 统计, 比如有如下 kafka消息: {"id": 1, "field2":"b"} {"id": ....

问答 2021-12-05 来自:开发者社区

kafka数据写入kafka flink1.10-sql解析复杂json中字段string,数据丢失

kafka数据写入kafka 数据,flink1.10-sql解析复杂json中字段为string,导致数据丢失。 来自志愿者整理的flink邮件归档来自志愿者整理的FLINK邮件归档

问答 2021-12-04 来自:开发者社区

Table Api连接kafka系统,能否把整条的kafka消息看成是一个table字段进行处理?

目前在学习使用pyflink的Table api,请教一个问题: 1、Table Api连接kafka系统,能否把整条的kafka消息看成是一个table字段进行处理?比如,kafka topic连的消息为一个json字符串,把这个字符串整体当做是一个字段,这样可以方便使用 pyflink 的udf函数对消息进行处理转换等操作? 2、如果以上可行,连接kafka的数据格式如何设置,即with_f....

问答 2020-07-17 来自:开发者社区

你们flinksql 处理kafka的json格式,如果其中一个字段是这样的:"list#Flink

你们flinksql 处理kafka的json格式,如果其中一个字段是这样的:"list_datas":"[{"bid":0.0,"gameId":"167074","itemType":"AndroidGame","passthrough":"b77d914cc1b14efeb8dc1429630fa8bc","pos":1,"secondPrice":0.0}]",你们flinkt建表的时候....

问答 2020-03-25 来自:开发者社区

使用Canal同步MySQL数据到Kafka 得到的数据中sql字段无值

"data": [{ "id": "13", "username": "13", "password": "6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9", "name": "Canal Manager", "roles": "admin", "introduction": null, "avatar": null, "crea...

问答 2019-09-24 来自:开发者社区

debezium同步数据的timestamp类型字段时,在kafka中消费出来的时候产生了时区差值

debezium同步数据的timestamp类型字段时,在kafka中消费出来的时候产生了时区差值,请问是什么原因?数据库和liunx的时区都设置过,在kafka中关于debezium的配置中也配置了时区问题,好像没有起作用

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

消息队列

消息队列是构建分布式互联网应用的基础设施,通过消息队列实现的松耦合架构设计可以提高系统可用性以及可扩展性,是适用于现代应用的优秀设计方案。

+关注