Hadoop 分布式文件系统 (HDFS) 目前给应用提供了几种访问方式?
A: Java API接口访问
B: C语言的封装 API访问
C: WebDAV协议访问
D: 通过浏览器的方式访问 HDFS中的文件
A: Java API接口访问
B: C语言的封装 API访问
C: WebDAV协议访问
D: 通过浏览器的方式访问 HDFS中的文件
举一反三
- HDFS文件访问方式有哪些 A: HDFS shell B: Java API C: REST API D: thrift 实现的Python、PHP等语言访问
- 以下关于Linux文件系统与HDFS的说法,错误的是: A: 它们是不同的文件系统,但文件内容都存在于Linux系统之中 B: HDFS文件系统构建于Linux操作系统之上,访问方式与Linux文件系统访问方式不同 C: HDFS文件系统构建于Linux操作系统之上,访问方式与Linux文件系统访问方式相同 D: Linux系统的文件与Hadoop中的文件可以相互复制
- 下列关于HDFS访问方式说法正确的是 A: HDFS提供了多种访问方式,包括HDFS Shell、HDFS API、数据收集组件(比如Flume,Sqoop等)以及上层计算框架等 B: HDFS提供了两类shell命令:用户命令和管理员命令 C: HDFS Shell的管理员命令主要是针对服务生命周期管理的,比如启动/关闭 NameNode/DataNode,HDFS份额管理等 D: 用户访问HDFS必须从零开始使用HDFS API开发程序
- HDFS提供以下哪几种客户端给用户访问 A: Python B: PHP C: Shell命令行 D: Java API
- Hadoop集群中只有Slave节点才能访问hdfs系统,创建目录、上传下载文件