HDFS有一个gzip文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时input split大小为:
A: 64MB
B: 128MB
C: 75MB
D: 一个map读取64MB,另外一个读取11MB
A: 64MB
B: 128MB
C: 75MB
D: 一个map读取64MB,另外一个读取11MB
举一反三
- HDFS有一个gzip文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时input split大小为: A: 64MB B: 128MB C: 75MB D: 一个map读取64MB,另外一个读取11MB
- HDFS有一个LZO(with index)文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时input split大小为? A: 64MB B: 75MB C: 128MB D: 一个map读取64MB,另外一个map读取11MB
- HDFS有一个gzip文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时input split大小为? A: 64MB B: 75MB C: 一个map读取38MB,另外一个map读取37MB D: 一个map读取32MB,另外一个map读取32MB
- HDFS默认一个块大小为()MB。 A: 64 B: 256 C: 128 D: 512
- 一个gzip文件大小75MB,客户端设置Block大小为64MB,请问其占用几个Block?