Spark RDD的运行过程主要包括() A: 从磁盘读入数据。 B: 创建RDD对象。 C: SparkContext负责计算RDD之间的依赖关系,构建DAG。 D: DAGScheduler负责把DAG图分解成多个阶段,每个阶段中包含了多个任务,每个任务会被任务任务调度器分发给各个工作节点(Worker Node)上的Executor去执行。
Spark RDD的运行过程主要包括() A: 从磁盘读入数据。 B: 创建RDD对象。 C: SparkContext负责计算RDD之间的依赖关系,构建DAG。 D: DAGScheduler负责把DAG图分解成多个阶段,每个阶段中包含了多个任务,每个任务会被任务任务调度器分发给各个工作节点(Worker Node)上的Executor去执行。
1