Hadoop技术中的()为海量的数据提供计算,它将单个任务打碎,并将碎片任务发送到多个节点上,之后再以单个数据集的形式加载到数据仓库里。
A: MapReduce
B: HDFS
C: Flash
D: CloudComputing
A: MapReduce
B: HDFS
C: Flash
D: CloudComputing
举一反三
- Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。
- 以下关于Hadoop三大核心组件说法中错误的都是() A: HDFS用于海量分布式数据的存储 B: MapReduce用于对海量数据进行分布式处理 C: YARN用于进行资源调度,为MR运算提供计算资源 D: HDFS适合于存储海量的较小数据文件
- Hadoop中,HDFS用来存储数据,MapReduce用来处理数据。
- Hadoop采用MapReduce整合HDFS上的数据,保证高速分析处理数据。
- Hadoop的两大核心是HDFS和MapReduce,HDFS用来存储数据,MapReduce用来处理数据。