下面关于推理引擎的描述中,正确的说法是哪个?
A: 推理引擎(Inference Engine)支持硬件指令集模型加速,然后进入模型优化环节
B: 对OpenCV图像处理库进行指令集优化,显著提升性能
C: 推理引擎将给定的模型转化为标准的 Intermediate Representation (IR)
D: 推理引擎使用插件架构,每个插件的API各不相同。
A: 推理引擎(Inference Engine)支持硬件指令集模型加速,然后进入模型优化环节
B: 对OpenCV图像处理库进行指令集优化,显著提升性能
C: 推理引擎将给定的模型转化为标准的 Intermediate Representation (IR)
D: 推理引擎使用插件架构,每个插件的API各不相同。
举一反三
- 下面哪个选项不是OpenVINO推理引擎的功能? A: 支持优化后的模型执行加速 B: 对OpenCV等图像处理库进行指令加速 C: 执行用户层的优化模型调用 D: 辅助训练模型
- OpenVINO™ 工具套件中用于模型优化以及推理加速的组件是? A: 模型优化器 B: 推理引擎 C: 参考实例 D: 模型优化器和推理引擎
- 下面有关深度学习部署套件DLDT的说法错误的是? A: DLDT分为两个部分:模型优化器和推理引擎。 B: 模型优化器是一个python脚本工具,用于将开源框架训练好的模型转化为推理引擎可以识别的中间表达。 C: 模型优化器不能进行Dropout操作和内存方面的优化。 D: 模型优化器负责模型转换,推理引擎是部署在设备上运行的AI负载。
- 下面哪些不是OpenVINO的组成部分? A: 模型优化器(model optimizer) B: 推理引擎(inference engine) C: 训练模型的开源平台,例如TensorFlow等 D: 调用OpenVINO的用户程序
- 关于推理引擎(IE)的描述中,正确的是哪个? A: IE只能在Intel相关的硬件上 B: IE无法安装在树莓派上 C: IE没有对GPU推理进行优化 D: IE无法实现硬件并行推理