HDFS有一个LZO(with index)文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时input split大小为?
A: 64MB
B: 75MB
C: 128MB
D: 一个map读取64MB,另外一个map读取11MB
A: 64MB
B: 75MB
C: 128MB
D: 一个map读取64MB,另外一个map读取11MB
D
举一反三
- HDFS有一个gzip文件大小75MB,客户端设置Blocky小为64MB。当运行 mapreduce任务读取该文件时input split大小为? A: —个rnapif^取64MB,另外一个 ma礴取11 MB B: 128MB C: 64MB D: 75MB
- HDFS有一个gzip文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时input split大小为: A: 64MB B: 128MB C: 75MB D: 一个map读取64MB,另外一个读取11MB
- HDFS有一个gzip文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时input split大小为? A: 64MB B: 75MB C: 一个map读取38MB,另外一个map读取37MB D: 一个map读取32MB,另外一个map读取32MB
- HDFS默认一个块大小为()MB。 A: 64 B: 256 C: 128 D: 512
- 一个gzip文件大小75MB,客户端设置Block大小为64MB,请问其占用几个Block?
内容
- 0
Hadoop3.0中HDFS 默认块的大小是()MB A: 16 B: 32 C: 64 D: 128
- 1
在默认的情况下,HDFS块的的大小为( )MB。 A: 512 B: 128 C: 64 D: 32
- 2
E体系(A率)的PCM30/32基群的比特率为【】 A: 2.048 Mb/s B: 64 Mb/s C: 1.544 Mb/s D: 64 Kb/s
- 3
图片素材,大小在( )以内。 A: 5 MB B: 10 MB C: 20 MB D: 30 MB
- 4
某机字长32位,它的存储容量为256MB,按字节编址,则它的寻址范围大小为( )。 A: 256MB B: (256-1)MB C: 64MB D: (64-1)MB