OpenVINO的部署描述中,正确的是?
A: 支持模型热更新
B: 支持CPU/VPU/FPGA多种硬件
C: 支持容器化部署
D: 支持直接运行PB格式的模型推理
A: 支持模型热更新
B: 支持CPU/VPU/FPGA多种硬件
C: 支持容器化部署
D: 支持直接运行PB格式的模型推理
举一反三
- 关于异构计算插件的描述,正确的是哪些? A: OpenVINO支持CPU、VPU、GPU等不同结构的硬件 B: OpenVINO支持CPU、VPU、GPU等不同结构的硬件同时并行推理 C: OpenVINO支持不同硬件之间动态负载均衡 D: 异构插件不支持神经网络计算棒二代(NCS2)
- 下面关于OpenVINO支持硬件的说法中,错误的说法是哪个? A: 在FPGA硬件下,要求OpenCV运行在CPU或GPU上 B: 在VPU硬件下,支持神经网络计算棒 C: 在VPU硬件下,不支持macOS操作系统 D: 在FPGA硬件下,支持CentOS 7.4 64位
- 下面关于OpenVINO项目开发流程的说明中,正确的说法是哪个? A: 模型经过OpenVINO训练后,再由模型优化和模型推理 B: OpenVINO对模型训练后支持保存为H5和PB两种格式的模型文件 C: OpenVINO只支持C++语言进行项目开发 D: OpenVINO中可使用异步操作进行加速推理速度
- 关于Inception的模型转化过程,描述错误的是? A: 从h5格式到PB格式的转化过程只是将参数固化 B: 从h5格式到PB格式的转化对模型性能进行了优化 C: OpenVINO不支持h5格式的模型输入格式 D: OpenVINO支持h5格式的模型输入格式
- 下面关于OpenVINO支持平台的说法中,错误的说法是哪个? A: OpenVINO对CPU的支持是从第3代开始 B: OpenVINO支持Windows操作系统 C: OpenVINO支持Linux操作系统 D: OpenVINO支持Ubuntu和macOS操作系统