Spark采用RDD以后能实现高效计算的原因有()
A: 中间结果存入磁盘
B: 中间结果可持久化到内存
C: 高效的容错性
D: 采用分区可实现计算向数据靠拢
A: 中间结果存入磁盘
B: 中间结果可持久化到内存
C: 高效的容错性
D: 采用分区可实现计算向数据靠拢
举一反三
- Spark采用RDD以后能够实现高效计算的原因主要在于? A: 高效的容错性 B: 中间结果持久化到内存,数据在内存中的多个 C: 存放的数据可以是Java对象,避免了不必要的对象序列化和反序列化 D: 采用数据复制实现容错
- 下列哪些属于RDD的特性 A: Spark的运行效率高于MapReduce B: JAVA对象存内存,避免了序列化和反序列化开销 C: 中间结果持久化到内存,避免了磁盘开销 D: 高效的容错性
- ______ 是构建在 Spark上的图计算模型,它利用spark框架提供的内存级存RDD、DAG和基于数据依赖的容错等特性,实现高效健壮的图计算框架
- ( )是构建在Spark上的图计算模型,它利用Spark框架提供的内存缓存RDD、DAG和基于数据依赖的容错等特性,实现高效健壮的图计算框架。 A: Data Manager B: MLlib C: Spark Runtime D: GraphX
- RDD作为Spark最核心的对象,具有一下那些特点?() A: 只读 B: 分区 C: 容错 D: 高效