Spark RDD的运行过程主要包括()
A: 从磁盘读入数据。
B: 创建RDD对象。
C: SparkContext负责计算RDD之间的依赖关系,构建DAG。
D: DAGScheduler负责把DAG图分解成多个阶段,每个阶段中包含了多个任务,每个任务会被任务任务调度器分发给各个工作节点(Worker Node)上的Executor去执行。
A: 从磁盘读入数据。
B: 创建RDD对象。
C: SparkContext负责计算RDD之间的依赖关系,构建DAG。
D: DAGScheduler负责把DAG图分解成多个阶段,每个阶段中包含了多个任务,每个任务会被任务任务调度器分发给各个工作节点(Worker Node)上的Executor去执行。
举一反三
- Spark使用基于_______的任务调度执行机制。 A: RDG B: DAG C: GCC D: RDD
- Spark的任务调度执行机制是以什么为基础的( )。 A: 内存计算 B: 数据流 C: RDD D: DAG
- 下列关于RDD的叙述错误的是 A: DAG图反应了RDD之间的依赖关系 B: RDD转换过程的中间结果保存在磁盘中 C: 不同RDD之间的转换容易API编程实现 D: DAG图反应了RDD的血缘关系
- 以下对Spark中RDD叙述错误的是() A: RDD是可读、写的 B: RDD是基于内存的高度首先的数据共享模型 C: RDD是基于磁盘的高度首先的数据共享模型 D: RDD之间的依赖关系分为宽依赖与窄依赖
- Spark中Executer() A: 负责运行任务,但是并不为应用程序存储数据。 B: 是集群中一台实际的物理机器,通过配置文件设置指定。 C: 负责大数据计算任务的调度和协调,实际上并不运行任务。 D: 是运行在工作节点上的一个进程,负责运行任务,并为应用程序存储数据。