下列选项中,关于HDFS说法错误的是()
A: HDFS是Hadoop的核心之一
B: HDFS源于Google的GFS论文
C: HDFS用于存储海量大数据
D: HDFS是用于计算海量大数据
A: HDFS是Hadoop的核心之一
B: HDFS源于Google的GFS论文
C: HDFS用于存储海量大数据
D: HDFS是用于计算海量大数据
举一反三
- Hadoop中核心组件HDFS是负责海量数据存储的。
- 以下关于Hadoop三大核心组件说法中错误的都是() A: HDFS用于海量分布式数据的存储 B: MapReduce用于对海量数据进行分布式处理 C: YARN用于进行资源调度,为MR运算提供计算资源 D: HDFS适合于存储海量的较小数据文件
- HDFS、MapReduce和YARN作为Hadoop的三大主要核心框架,其中用于解决海量数据存储的是()。 A: HDFS B: MapReduce C: YARN D: 以上都可以
- Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。
- HDFS是Hadoop分布式文件系统,可以解决海量数据存储的问题,优点有()、()、()、().