应用场景
本文介绍消息队列Kafka版的典型应用场景,包括网站活动跟踪、日志聚合、流计算处理、数据中转枢纽。网站活动跟踪 成功的网站运营需要对站点的用户行为进行分析。通过消息队列Kafka版的发布/订阅模型,您可以实时收集网站活动数据(例如注册...
产品概述
流计算StreamComputeStreamCompute是阿里云提供的流计算引擎,提供使用类SQL的语言来进行流式计算。数据总线 DataHub 和StreamCompute无缝结合,可以作为StreamCompute的数据源和输出源,具体可参考实时计算文档流处理应用用户可以编写应用...
应用场景
协议发送到物联网平台,经由物联网平台将数据转发到消息服务系统,继而通过流计算系统对这些数据进行实时计算处理后写入到 TSDB 中存储,或者经由物联网平台直接将原始数据写入 TSDB 中存储。前端的监控系统和大数据处理系统会利用 TSDB 的...
企业级状态后端存储介绍
在流计算任务中,不同算子往往具有不同的状态访问模式。状态存储通常需要不同的参数组合才可以达到最佳的性能,而这些参数往往很多而且涉及底层细节,手动调参会给您带来较高的学习和理解成本。GeminiStateBackend通过自适应参数调优技术,...
通过大数据平台搭建设备监控大屏
(可选)使用阿里实时计算进行流式数据计算处理。如要统计活跃设备数量,需根据DataHub接收到的设备收发消息记录计算出一个指标,即截至到当前时间,收发过消息的设备数量。这个指标经过实时计算,然后写入数据库中。了解实时计算开发平台...
配置流引擎的宽表连接器
在使用流引擎处理计算任务时,Lindorm支持将宽表作为维表或结果表使用。本文介绍使用Flink SQL提交计算任务时的宽表连接器配置。背景信息在流引擎中通过Flink SQL提交计算任务时,需要使用CREATE TABLE语句并配置连接器(Connector)参数。...
实时消费概述
实时消费适用于流计算、实时计算等场景。实时消费的实时性较强,通常为秒级。您可以自定义存储时间。功能优势 实时消费具有以下优势:数据集中 日志服务已完成不同机器上的数据集中化,您只需通过SDK实时消费采集到日志服务的数据。分类...
实时计算结果写入TSDB
流计算和TSDB是解决应用监控运维的经典方案,通过流计算将日志,事件,指标metric数据进行预计算加工,将计算结果存储到 TSDB 进行监控分析,支持业务需求。点击查看,如何实现 实时计算结果如何写入到TSDB
常见问题
可能原因:您的RDS数据库与流计算项目不在同一区域。解决方法:需要手动将流计算服务的白名单添加到RDS白名单中,详情请参见数据存储白名单配置。源表数据无法同步到目标表中。可能原因:源表的数据类型与目标表不一致,在进行类型转换时...
概述
DataHub用于实时上传数据,主要适用于流式计算场景。数据上传后会保存到实时表,后续会在几分钟内通过定时任务的形式同步到MaxCompute离线表,供离线计算使用。LogHub 日志服务SLS提供数据投递功能,将LogHub实时采集的日志投递至...