• 2022-06-03
    Spark RDD的运行过程主要包括()
    A: 从磁盘读入数据。
    B: 创建RDD对象。
    C: SparkContext负责计算RDD之间的依赖关系,构建DAG。
    D: DAGScheduler负责把DAG图分解成多个阶段,每个阶段中包含了多个任务,每个任务会被任务任务调度器分发给各个工作节点(Worker Node)上的Executor去执行。