下面对于spark的特点描述正确的是()
A: 良好的容错性:在分布式数据集计算时通过checkpoint来实现容错,当某个运算环节失败时,不需要从头开始重新计算
B: 开发便捷性:spark通过scala,java,pythonapi及交互式shell提供丰富的使用方式
C: 不适合细粒度更新操作:Spark的运算是面向集合的,不适用于需要异步细粒度更新状态的应用,例如web服务的DAO层或web爬虫等
D: 以上答案都不符合其特性
A: 良好的容错性:在分布式数据集计算时通过checkpoint来实现容错,当某个运算环节失败时,不需要从头开始重新计算
B: 开发便捷性:spark通过scala,java,pythonapi及交互式shell提供丰富的使用方式
C: 不适合细粒度更新操作:Spark的运算是面向集合的,不适用于需要异步细粒度更新状态的应用,例如web服务的DAO层或web爬虫等
D: 以上答案都不符合其特性
举一反三
- 大数据处理框架-Spark的优点是()。 A: Spark是基于内存的迭代计算框架,适用于需要多次操作特定数据集的应用场合 B: Spark不适用那种异步细粒度更新状态的应用 C: Spark基于非实时数据流的数据处理 D: Spark的适用面比较广泛且比较通用
- Spark的应用场景有哪些?() A: 基于内存的迭代计算适用于需要多次操作特定数据集的应用场合 B: 由于RDD的特性,Spark不适用那种异步细粒度更新状态的应用 C: 适用于增量的web 爬虫和索引,就是对于那种增量修改的应用 D: 数据量没特别大的情况下,但是要求适当程度实时统计分析需求
- Spark的最早数据设计中,RDD是基于内存的计算,可以支持细粒度的数据的读写和和更新操作,所以非常适用于增量迭代运算。
- 关于Spark描述错误的是 A: Spark SQL是Spark提供的对实时数据进行流式计算的组件 B: Spark是一个用来实现快速而通用的集群计算的平台 C: Spark适用于各种各样的分布式平台场景,包括批处理、迭代算法、交互式查询、流处理等 D: Spark core实现Spark的基本功能
- 关于Spark和Mapreduce,下列说法正确的是()。 A: 性能上提升高于100倍(全内存计算) B: Spark的中间数据放在内存中,对于迭代运算、批处理计算的效率更高,延迟更低。 C: 提供更多的数据集操作类型,编程模型更灵活,开发效率更高。 D: 更低的容错能力(血统机制)。 E: Spark用十分之一的资源,获得10倍与Mapreduce的性能。