阿里云文档 2025-10-21

EMR Spark Streaming节点

EMR Spark Streaming节点用于处理高吞吐量的实时流数据,并具备容错机制,可以帮助您快速恢复出错的数据流。本文为您介绍如何创建EMR Spark Streaming节点并进行数据开发。

阿里云文档 2024-10-18

表格存储对接 Spark Streaming 场景案例的视频介绍

表格存储对接 Spark Streaming 场景案例的视频介绍

阿里云文档 2024-10-18

表格存储对接 Spark Streaming 的操作示例

表格存储对接 Spark Streaming 的操作示例

阿里云文档 2024-10-18

表格存储对接 Spark Streaming 介绍

表格存储对接 Spark Streaming 介绍

阿里云文档 2024-07-05

如何在Spark Streaming SQL中使用INSERT INTO语句

StarRocks中INSERT INTO语句的使用方式和MySQL等数据库中INSERT INTO语句的使用方式类似, 但在StarRocks中,所有的数据写入都是一个独立的导入作业 ,所以StarRocks中将INSERT INTO作为一种导入方式介绍。本文为您介绍Insert Into导入的使用场景、相关配置以及导入示例。

文章 2022-12-29 来自:开发者社区

Spark Streaming实时流处理项目实战笔记——使用KafkaSInk将Flume收集到的数据输出到Kafka

Flume配置文件a1.sources = r1 a1.sinks = k1 a1.channels = c1 a1.sources.r1.type = avro a1.sources.r1.bind = hadoop a1.sources.r1.port = 44444 a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink a1.si....

文章 2022-12-29 来自:开发者社区

Spark Streaming实时流处理项目实战笔记——实战之黑名单过滤

思路源代码窗口函数 代码实现object Black extends App { import org.apache.spark.SparkConf import org.apache.spark.streaming.{Seconds, StreamingContext} val sparkConf = new SparkConf().setMaster("local[2]")....

Spark Streaming实时流处理项目实战笔记——实战之黑名单过滤
文章 2022-12-29 来自:开发者社区

Spark Streaming实时流处理项目实战笔记——将统计结果写入到MySQL数据库中

思路两种方式,一种可优化(foreachRDD后,直接创建连接Mysql),一种在(foreachRDD后通过foreachPartition,通过分区获取)代码实现import java.sql.DriverManager import Spark.UpdateStateByKey.workds import Spark.WordCount.ssc import org.apache.spar....

Spark Streaming实时流处理项目实战笔记——将统计结果写入到MySQL数据库中
文章 2022-12-29 来自:开发者社区

Spark Streaming实时流处理项目实战笔记——Kafka Consumer Java API编程

1、在控制台创建发送者kafka-console-producer.sh --broker-list hadoop2:9092 --topic zz >hello world2、消费者APIimport java.util.Arrays; import java.util.Properties; import org.apache.kafka.clients.consumer.Consum....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注