关系数据库已经流行很多年,并且Hadoop已经有了HDFS和MapReduce,为什么需要HBase?
举一反三
- 关系数据库已经流行很多年,并且Hadoop已经有了HDFS和MapReduce,为什么需要HBase? A: Hadoop可以很好地解决大规模数据的离线批量处理问题,但是,受限于HadoopMapReduce编程框架的高延迟数据处理机制,使得Hadoop无法满足大规模数据实时处理应用的需求上 B: HDFS面向批量访问模式,不是随机访问模式 C: 传统的通用关系型数据库无法应对在数据规模剧增时导致的系统扩展性和性能问题 D: 传统关系数据库在数据结构变化时一般需要停机维护;空列浪费存储空间
- Hadoop的两大核心是和 A: HDFS;MapReduce B: HDFS;HBase C: MapReduce;HBase D: GFS;MapReduce
- Hadoop的两大核心是_______和_______( B ) A: MapReduce;HBase B: HDFS;MapReduce C: HDFS;HBase D: GFS;MapReduce
- Hadoop的两大核心是( )。 A: HDFS; MapReduce B: MapReduce; HBase C: GFS; MapReduce D: HDFS; HBase
- Hadoop的两大核心是?()(5.0分)A.()HDFS;()MapReduce()B.()MapReduce;()HBase()C.()HDFS;()HBase()D.()GFS;()MapReduce