• 2022-06-19
    以下关于MapReduce和Spark的说法,错误的是( )。
    A: Spark中没有map和reduce操作。
    B: MapReduce不适合迭代计算。
    C: Spark提供了内存计算,可将中间结果放到内存中,对于迭代运算效率更高。
    D: Spark基于DAG的任务调度执行机制,要优于Hadoop MapReduce的迭代执行机制。
  • A

    内容

    • 0

      关于Spark,下列说法错误的是:()。 A: Spark可以将中间数据缓存在内存中,极大提高运算效率 B: Spark采用MapReduce机制进行任务并行化 C: RDD是Spark的基本数据结构 D: Spark非常适合迭代运算

    • 1

      关于Spark和Mapreduce,下列说法正确的是()。 A: 性能上提升高于100倍(全内存计算) B: Spark的中间数据放在内存中,对于迭代运算、批处理计算的效率更高,延迟更低。 C: 提供更多的数据集操作类型,编程模型更灵活,开发效率更高。 D: 更低的容错能力(血统机制)。 E: Spark用十分之一的资源,获得10倍与Mapreduce的性能。

    • 2

      Spark的中间数据放在内存中,对于迭代运算、批处理计算的效率更高,延迟更高。()

    • 3

      下面那些是spark比MapReduce计算快的原因 A: 基于内存的计算 B: 基于DAG的调度框架 C: 基于内存数据集的容错机制 D: 基于分布式计算的框架

    • 4

      Spark和Hadoop一样不适用于迭代计算。(<br/>)