RDD可以从Hadoop兼容的文件系统生成,生成之后可以通过调用RDD的算子对RDD的数据进行部分更新。
举一反三
- 关于Spark中RDD的描述不正确的是?() A: RDD 可以从 HDFS 输入创建.或从与 Hadoop 兼容的其他存储系统中输入创建 B: 当前 RDD 默认是存储于内存.当内存不足时,RDD 也不会溢出到磁盘中。 C: Spark 的所有 Transform 操作都是基于 RDD 来实现的。 D: RDD 是只读和可区分的。要想对 RDD 进行操作.只能重新生成一个新的 RDD
- RDD操作进行的转换指的是() A: 可以通过Scala集合或者Hadoop构造新的RDD B: 通过已有的RDD产生新的RDD C: 通过RDD计算得到一个或一组值 D: 进行countcollect等操作
- 关于Spark中RDD的描述不准确的是?() A: RDD 可以从 HDFS 输入创建. 或从与 Had oop 兼容的其他存储系统中输入创建 B: Spark 的所有 Transform 操作都是基于 RDD 来实现的。 C: RDD 是只读和可分区的。要想对 RDD 进行操作. 只能重新生成一个新的 RDD。 D: 当前 RDD 默认是存储于内存. 当内存不足时, RDD 也不会溢出到磁盘中
- RDD 表示只读的分区的数据集,对 RDD 进行改动,只能通过 RDD 的转换操作。( )
- distinct算子对源RDD进行去重后返回一个新的RDD