• 2022-06-19
    下列对hadoop和spark的描述错误的是
    A: hadoop的编程范式:map+reduce,spark的编程范式是DAG:transformation+action
    B: hadoop计算中间结果落到磁盘,io及序列化、反序列化代价大,spark在内存中维护存取速度比磁盘高几个数据级
    C: hadoop的Task以进程的方式维护需要数秒时间才能启动任务,spark的任务以线程的方式维护对于小数据集读取能够达到亚秒级的延迟
    D: hadoop和spark都是对磁盘进行数据的读写