Spark的应用场景有哪些?()
A: 基于内存的迭代计算适用于需要多次操作特定数据集的应用场合
B: 由于RDD的特性,Spark不适用那种异步细粒度更新状态的应用
C: 适用于增量的web 爬虫和索引,就是对于那种增量修改的应用
D: 数据量没特别大的情况下,但是要求适当程度实时统计分析需求
A: 基于内存的迭代计算适用于需要多次操作特定数据集的应用场合
B: 由于RDD的特性,Spark不适用那种异步细粒度更新状态的应用
C: 适用于增量的web 爬虫和索引,就是对于那种增量修改的应用
D: 数据量没特别大的情况下,但是要求适当程度实时统计分析需求
举一反三
- 大数据处理框架-Spark的优点是()。 A: Spark是基于内存的迭代计算框架,适用于需要多次操作特定数据集的应用场合 B: Spark不适用那种异步细粒度更新状态的应用 C: Spark基于非实时数据流的数据处理 D: Spark的适用面比较广泛且比较通用
- Spark的最早数据设计中,RDD是基于内存的计算,可以支持细粒度的数据的读写和和更新操作,所以非常适用于增量迭代运算。
- 由于Spark是基于内存的计算引擎,因此,一个Spark应用可以处理的数据量不能超过分给这个Spark应用的内存总和。()
- RDD有哪些缺陷() A: 不支持细粒度的写和更新操作(如网络爬虫> B: 基于内存的计算 C: 拥有schema信息 D: 不支持增量迭代计算
- 下面对于spark的特点描述正确的是() A: 良好的容错性:在分布式数据集计算时通过checkpoint来实现容错,当某个运算环节失败时,不需要从头开始重新计算 B: 开发便捷性:spark通过scala,java,pythonapi及交互式shell提供丰富的使用方式 C: 不适合细粒度更新操作:Spark的运算是面向集合的,不适用于需要异步细粒度更新状态的应用,例如web服务的DAO层或web爬虫等 D: 以上答案都不符合其特性