spark是Hadoop生态下哪个组件的替代方案?
举一反三
- spark是hadoop生态下哪个组件的替代方案 ( )。 A: Hadoop B: Yarn C: HDFS D: MapReduce
- Hadoop的核心组件是________和________。 A: GFS B: HDFS C: Spark D: MapReduce
- Hadoop的核心组件包括 A: HDFS B: Spark C: Python D: MapReduce
- Hadoop的核心组件是( MapReduce)和( )。 A: GFS B: HDFS C: Spark D: Storm
- 下面关于Spark和Hadoop的关系,描述错误的是:( ) A: Spark和Hadoop一样,既包含了存储的组件,也包含了计算的组件 B: Spark作为计算框架,只能解决数据计算问题,无法解决数据存储问题 C: Spark只是取代了Hadoop生态系统中的计算框架MapReduce,而Hadoop中的其他组件依然在企业大数据系统中发挥着重要的作用 D: 越来越多的企业放弃MapReduce,转而使用Spark开发企业应用