• 2022-06-03
    Spark采用RDD以后能够实现高效计算的原因主要在于?
    A: 高效的容错性
    B: 中间结果持久化到内存,数据在内存中的多个
    C: 存放的数据可以是Java对象,避免了不必要的对象序列化和反序列化
    D: 采用数据复制实现容错