OpenVINO的部署描述中,正确的是?
A: 支持模型热更新
B: 支持CPU/VPU/FPGA多种硬件
C: 支持容器化部署
D: 支持直接运行PB格式的模型推理
A: 支持模型热更新
B: 支持CPU/VPU/FPGA多种硬件
C: 支持容器化部署
D: 支持直接运行PB格式的模型推理
A,B,C
举一反三
- 关于异构计算插件的描述,正确的是哪些? A: OpenVINO支持CPU、VPU、GPU等不同结构的硬件 B: OpenVINO支持CPU、VPU、GPU等不同结构的硬件同时并行推理 C: OpenVINO支持不同硬件之间动态负载均衡 D: 异构插件不支持神经网络计算棒二代(NCS2)
- 下面关于OpenVINO支持硬件的说法中,错误的说法是哪个? A: 在FPGA硬件下,要求OpenCV运行在CPU或GPU上 B: 在VPU硬件下,支持神经网络计算棒 C: 在VPU硬件下,不支持macOS操作系统 D: 在FPGA硬件下,支持CentOS 7.4 64位
- 下面关于OpenVINO项目开发流程的说明中,正确的说法是哪个? A: 模型经过OpenVINO训练后,再由模型优化和模型推理 B: OpenVINO对模型训练后支持保存为H5和PB两种格式的模型文件 C: OpenVINO只支持C++语言进行项目开发 D: OpenVINO中可使用异步操作进行加速推理速度
- 关于Inception的模型转化过程,描述错误的是? A: 从h5格式到PB格式的转化过程只是将参数固化 B: 从h5格式到PB格式的转化对模型性能进行了优化 C: OpenVINO不支持h5格式的模型输入格式 D: OpenVINO支持h5格式的模型输入格式
- 下面关于OpenVINO支持平台的说法中,错误的说法是哪个? A: OpenVINO对CPU的支持是从第3代开始 B: OpenVINO支持Windows操作系统 C: OpenVINO支持Linux操作系统 D: OpenVINO支持Ubuntu和macOS操作系统
内容
- 0
OneNET平台的灵活性包括() A: 支持横向扩容 B: 服务可插拔 C: 支持多种交付模式 D: 支持多级部署架构,但不支持跨国部署
- 1
下面关于OpenVINO的描述中,正确的说法是哪个? A: OpenVINO对模型训练具有显著性能提升 B: 经过OpenVINO的模型优化可以提升模型准确率 C: OpenVINO除支持C++外,还支持Python语言接口 D: OpenVINO在使用前需要经过Intel官方购买并授权
- 2
报表支持的部署方式,只支持云环境部署
- 3
下面哪几项是体现提高机器学习算法的预测精准度?() A: 支持模型选择和参数配置 B: 支持模型的实时更新 C: 支持模型的保存 D: 支持模型的导出
- 4
下面哪几项是体现提高机器学习算法的预测精准度() A: 支持模型选择和参数配置 B: 支持模型的实时更新 C: 支持模型的保存 D: 支持模型的导出