Spark加载HDFS的上文件,需要修改()配置文件,修改()配置参数。
A: spark-core.xml,HADOOP_HOME
B: spark-env.sh,HADOOP_CONF_DIR
C: spark-core,HADOOP_CONF_DIR
D: spark-env.dh,HADOOP_HOME
A: spark-core.xml,HADOOP_HOME
B: spark-env.sh,HADOOP_CONF_DIR
C: spark-core,HADOOP_CONF_DIR
D: spark-env.dh,HADOOP_HOME
举一反三
- 关于Hadoop和Spark的相互关系,以下说法正确的是 A: Hadoop和Spark可以相互协作 B: Hadoop负责数据的存储和管理 C: Spark负责数据的计算 D: Spark要操作Hadoop中的数据,需要先启动HDFS
- spark和hadoop对比,说法正确的是? A: Hadoop中间结果会存储在磁盘上 B: spark中间结果会存储在内存中 C: Spark已经完全取代hadoop D: Spark相对于hadoop提供了更多的操作
- Hadoop的核心是(): HDFS和MapReduce|HDFS和Spark|MapReduce和Spark|YARN和Sqoop
- Spark与Hadoop的区别() A: Spark是基于硬盘计算框架,而Hadoop基于内存计算框架 B: Spark是基于内存计算框架,而Hadoop基于硬盘计算框架 C: Spark只适合离线处理计算框架,而Hadoop是一站式计算框架 D: Spark是一站式计算框架,而Hadoop只适合离线处理计算框架
- Hadoop的核心是()。 A: HDFS和MapReduce B: MapReduce和Spark C: HDFS和Spark D: YARN和Sqoop