Spark可以使用Hadoop的YARN和ApacheMesos作为它的资源管理和调度器,并且可以处理所有Hadoop支持的数据,包括HDFS、HBase和Cassandra等
举一反三
- Hadoop的核心是(): HDFS和MapReduce|HDFS和Spark|MapReduce和Spark|YARN和Sqoop
- hadoop大数据集群中计算资源调度是使用那个组件来完成? A: spark B: flink C: hdfs D: yarn
- 关于Hadoop和Spark的相互关系,以下说法正确的是 A: Hadoop和Spark可以相互协作 B: Hadoop负责数据的存储和管理 C: Spark负责数据的计算 D: Spark要操作Hadoop中的数据,需要先启动HDFS
- 以下哪种技术用于Hadoop集群资源调度? A: MapReduce B: YARN C: HBase D: HDFS
- 以下哪种技术用于Hadoop集群资源调度? A: MapReduce B: YARN C: HBase D: HDFS