下列选项中,关于HDFS说法错误的是()
A: HDFS是Hadoop的核心之一
B: HDFS源于Google的GFS论文
C: HDFS用于存储海量大数据
D: HDFS是用于计算海量大数据
A: HDFS是Hadoop的核心之一
B: HDFS源于Google的GFS论文
C: HDFS用于存储海量大数据
D: HDFS是用于计算海量大数据
D
举一反三
- Hadoop中核心组件HDFS是负责海量数据存储的。
- 以下关于Hadoop三大核心组件说法中错误的都是() A: HDFS用于海量分布式数据的存储 B: MapReduce用于对海量数据进行分布式处理 C: YARN用于进行资源调度,为MR运算提供计算资源 D: HDFS适合于存储海量的较小数据文件
- HDFS、MapReduce和YARN作为Hadoop的三大主要核心框架,其中用于解决海量数据存储的是()。 A: HDFS B: MapReduce C: YARN D: 以上都可以
- Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。
- HDFS是Hadoop分布式文件系统,可以解决海量数据存储的问题,优点有()、()、()、().
内容
- 0
Hadoop的两大核心是HDFS和MapReduce,HDFS用来存储数据,MapReduce用来处理数据。
- 1
下列属于Google的海量数据管理技术是:() A: BigTable B: HBase C: GFS D: HDFS
- 2
关于HDFS下列说法错误的是( )。 A: HDFS是Hadoop系统的重要组成部分 B: 读取HDFS文件可以使用命令hdfs dfs -put C: HDFS是一个分布式储存系统 D: 存储元数据的机器叫做“名称节点”
- 3
Hadoop的两大核心是( )。 A: HDFS; MapReduce B: MapReduce; HBase C: GFS; MapReduce D: HDFS; HBase
- 4
在Hadoop平台上,对应Google三大技术Google File System(GFS)、MapReduce、BigTable的模块分别是? HDFS/MapReduce/Zookeeper;|HDFS/MapReduce/Hive|HDFS/MapReduce/Scoop|HDFS/MapReduce/HBase;