Hadoop中核心组件HDFS是负责海量数据存储的。
举一反三
- 下列选项中,关于HDFS说法错误的是() A: HDFS是Hadoop的核心之一 B: HDFS源于Google的GFS论文 C: HDFS用于存储海量大数据 D: HDFS是用于计算海量大数据
- 以下关于Hadoop三大核心组件说法中错误的都是() A: HDFS用于海量分布式数据的存储 B: MapReduce用于对海量数据进行分布式处理 C: YARN用于进行资源调度,为MR运算提供计算资源 D: HDFS适合于存储海量的较小数据文件
- Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。
- Hadoop集群中的节点 () 负责HDFS的数据存储
- HDFS是Hadoop分布式文件系统,可以解决海量数据存储的问题,优点有()、()、()、().