文章 2017-05-02 来自:开发者社区

《深入理解Spark:核心思想与源码分析》——3.13节创建DAGSchedulerSource和BlockManagerSource

本节书摘来自华章社区《深入理解Spark:核心思想与源码分析》一书中的第3章,第3.13节创建DAGSchedulerSource和BlockManagerSource,作者耿嘉安,更多章节内容可以访问云栖社区“华章社区”公众号查看 3.13 创建DAGSchedulerSource和BlockManagerSource在创建DAGSchedulerSource、BlockManagerSour....

文章 2017-05-02 来自:开发者社区

《深入理解Spark:核心思想与源码分析》——3.3节创建metadataCleaner

本节书摘来自华章社区《深入理解Spark:核心思想与源码分析》一书中的第3章,第3.3节创建metadataCleaner,作者耿嘉安,更多章节内容可以访问云栖社区“华章社区”公众号查看 3.3 创建metadataCleanerSparkContext为了保持对所有持久化的RDD的跟踪,使用类型是TimeStamped-WeakValueHashMap的persistentRdds缓存。met....

文章 2017-05-02 来自:开发者社区

《深入理解Spark:核心思想与源码分析》——3.2节创建执行环境SparkEnv

本节书摘来自华章社区《深入理解Spark:核心思想与源码分析》一书中的第3章,第3.2节创建执行环境SparkEnv,作者耿嘉安,更多章节内容可以访问云栖社区“华章社区”公众号查看 3.2 创建执行环境SparkEnvSparkEnv是Spark的执行环境对象,其中包括众多与Executor执行相关的对象。由于在local模式下Driver会创建Executor,local-cluster部署模....

文章 2017-05-02 来自:开发者社区

深入理解Spark:核心思想与源码分析. 3.13 创建DAGSchedulerSource和BlockManagerSource

3.13 创建DAGSchedulerSource和BlockManagerSource 在创建DAGSchedulerSource、BlockManagerSource之前首先调用taskScheduler的post-StartHook方法,其目的是为了等待backend就绪,见代码清单3-53。postStartHook的实现见代码清单3-54。 创建DAGSchedulerSource和B....

文章 2017-05-02 来自:开发者社区

深入理解Spark:核心思想与源码分析. 3.3 创建metadataCleaner

3.3 创建metadataCleaner SparkContext为了保持对所有持久化的RDD的跟踪,使用类型是TimeStamped-WeakValueHashMap的persistentRdds缓存。metadataCleaner的功能是清除过期的持久化RDD。创建metadataCleaner的代码如下。 private[spark] val persistentRdds = new T....

文章 2017-05-02 来自:开发者社区

深入理解Spark:核心思想与源码分析. 3.2 创建执行环境SparkEnv

3.2 创建执行环境SparkEnv SparkEnv是Spark的执行环境对象,其中包括众多与Executor执行相关的对象。由于在local模式下Driver会创建Executor,local-cluster部署模式或者Standalone部署模式下Worker另起的CoarseGrainedExecutorBackend进程中也会创建Executor,所以SparkEnv存在于Driver....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

Apache Spark 中国技术社区

阿里巴巴开源大数据技术团队成立 Apache Spark 中国技术社区,定期推送精彩案例,问答区数个 Spark 技术同学每日在线答疑,只为营造 Spark 技术交流氛围,欢迎加入!

+关注