关于OpenVINO,正确的说法是哪个?
A: OpenVINO主要用于模型训练过程优化
B: OpenVINO主要用于模型推断过程优化
C: 模型训练过程越长,在OpenVINO的推断过程就会越慢
D: 模型训练过程越短,在OpenVINO的推断过程就会越慢
A: OpenVINO主要用于模型训练过程优化
B: OpenVINO主要用于模型推断过程优化
C: 模型训练过程越长,在OpenVINO的推断过程就会越慢
D: 模型训练过程越短,在OpenVINO的推断过程就会越慢
举一反三
- 下面关于OpenVINO项目开发流程的说明中,正确的说法是哪个? A: 模型经过OpenVINO训练后,再由模型优化和模型推理 B: OpenVINO对模型训练后支持保存为H5和PB两种格式的模型文件 C: OpenVINO只支持C++语言进行项目开发 D: OpenVINO中可使用异步操作进行加速推理速度
- 下面关于OpenVINO的描述中,正确的说法是哪个? A: OpenVINO对模型训练具有显著性能提升 B: 经过OpenVINO的模型优化可以提升模型准确率 C: OpenVINO除支持C++外,还支持Python语言接口 D: OpenVINO在使用前需要经过Intel官方购买并授权
- 下面哪些不是OpenVINO的组成部分? A: 模型优化器(model optimizer) B: 推理引擎(inference engine) C: 训练模型的开源平台,例如TensorFlow等 D: 调用OpenVINO的用户程序
- 关于Inception的模型转化过程,描述错误的是? A: 从h5格式到PB格式的转化过程只是将参数固化 B: 从h5格式到PB格式的转化对模型性能进行了优化 C: OpenVINO不支持h5格式的模型输入格式 D: OpenVINO支持h5格式的模型输入格式
- 下面对于OpenVINO的介绍错误的是? A: OpenVINO和TensorRT都是开源的。 B: OpenVino和TensorRT类似,是硬件厂商针对自家的硬件平台开发的一套深度学习工具库,包含推断库,模型优化等等一系列与深度学习模型部署相关的功能。 C: OpenVINO针对Intel的多代CPU以及其他硬件平台做了针对的优化。 D: OpenVINO的工作流程是先训练好模型,然后解析成OpenVINO专用的.xml和.bin,再传入Inference Engine中进行推理。