使用Hadoop命令操作OSS/OSS-HDFS
在使用阿里云EMR Serverless Spark的Notebook时,您可以通过Hadoop命令直接访问OSS或OSS-HDFS数据源。本文将详细介绍如何通过Hadoop命令操作OSS/OSS-HDFS。
EMR Spark Relational Cache 利用数据预组织加速查询
作者:王道远,花名健身,阿里云EMR技术专家,Apache Spark活跃贡献者,主要关注大数据计算优化相关工作。 Relational Cache相关文章链接:使用Relational Cache加速EMR Spark数据分析使用EMR Spark Relational Cache跨集群同步数据EMR Spark Relational Cache的执行计划重写EMR Spark Relati.....
EMR Spark Relational Cache 利用数据预组织加速查询
Relational Cache相关文章链接: 使用Relational Cache加速EMR Spark数据分析使用EMR Spark Relational Cache跨集群同步数据EMR Spark Relational Cache的执行计划重写EMR Spark Relational Cache如何支持雪花模型中的关联匹配 背景 在利用Relational Cache进行查询优化时,我们需....
EMR Spark Relational Cache如何支持雪花模型中的关联匹配
作者:李呈祥,阿里巴巴计算平台事业部EMR团队高级技术专家,Apache Hive Committer, Apache Flink Committer,深度参与了Hadoop,Hive,Spark,Flink等开源项目的研发工作,对于SQL引擎,分布式系统有较为深入的了解和实践,目前主要专注于EMR产品中开源计算引擎的优化工作。 Relational Cache相关文章链接:使用Relation....
EMR Spark Relational Cache如何支持雪花模型中的关联匹配
Relational Cache相关文章链接: 使用Relational Cache加速EMR Spark数据分析使用EMR Spark Relational Cache跨集群同步数据EMR Spark Relational Cache的执行计划重写 背景 Join是Spark SQL中非常常见的操作,数据表按照业务语义的范式化表定义,便于用户理解与使用,而且可以消除冗余数据。用户通过join操....
EMR Spark Relational Cache的执行计划重写
作者:王道远,花名健身, 阿里巴巴计算平台EMR技术专家。 背景 EMR Spark提供的Relational Cache功能,可以通过对数据模型进行预计算和高效地存储,加速Spark SQL,为客户实现利用Spark SQL对海量数据进行即时查询的目的。Relational Cache的工作原理类似物化视图,在用户提交SQL语句时对语句进行分析,并选出可用的预计算结果来加速查询。为了实现高效地....
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
apache spark您可能感兴趣
- apache spark技术
- apache spark大数据
- apache spark优先级
- apache spark batch
- apache spark客户端
- apache spark任务
- apache spark调度
- apache spark yarn
- apache spark作业
- apache spark Hive
- apache spark SQL
- apache spark streaming
- apache spark数据
- apache spark Apache
- apache spark Hadoop
- apache spark rdd
- apache spark MaxCompute
- apache spark集群
- apache spark运行
- apache spark summit
- apache spark模式
- apache spark分析
- apache spark flink
- apache spark学习
- apache spark Scala
- apache spark机器学习
- apache spark应用
- apache spark实战
- apache spark操作
- apache spark程序
Apache Spark 中国技术社区
阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!
+关注