Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。
举一反三
- Hadoop()框架的核心设计是()。()为海量数据提供了存储,()为海量数据提供了计算
- HDFS、MapReduce和YARN作为Hadoop的三大主要核心框架,其中用于解决海量数据存储的是()。 A: HDFS B: MapReduce C: YARN D: 以上都可以
- 以下关于Hadoop三大核心组件说法中错误的都是() A: HDFS用于海量分布式数据的存储 B: MapReduce用于对海量数据进行分布式处理 C: YARN用于进行资源调度,为MR运算提供计算资源 D: HDFS适合于存储海量的较小数据文件
- Hadoop的两大核心是HDFS和MapReduce,HDFS用来存储数据,MapReduce用来处理数据。
- Hadoop框架中最核心的设计是什么? A: 为海量数据提供存储的HDFS和对数据进行计算的MapReduce B: Hadoop被视为事实上的大数据处理标准 C: Hadoop不仅可以运行在企业内部的集群中,也可以运行在云计算环境中 D: 提供整个HDFS文件系统的NameSpace(命名空间)管理、块管理等所有服务