4

OpenVINO™入门 · 从零开始安装配置 OpenVINO

 3 years ago
source link: https://bbs.cvmart.net/articles/4266
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

OpenVINO™入门 · 从零开始安装配置 OpenVINO

1个月前 ⋅ 156 ⋅ 0 ⋅ 0

本文来源:OpenVINO 中文社区
内 容 来 源  | 郭春旭
原文链接:https://mc.dfrobot.com.cn/thread-306568-1-1.html

一、简要介绍

笔者之前对于神经网络的边缘计算加速和部署并不是很了解,在队友的帮助下逐步了解 OpenVINO 和神经计算棒的一些用法,期间由于没有经验踩了不少的坑,在此分享一下 OpenVINO 的安装和跑通自带示例的过程。  

主要参考了 OpenVINO 官网的安装教程【https://docs.openvinotoolkit.org/latest/openvino\_docs\_install\_guides\_installing\_openvino\_windows.html】,从小白(不就是我吗)视角讲如何将 OpenVINO 安装在 win10 系统上!

首先,OpenVINO 本身需要 CMAKE ,  python 和 VS 这三个依赖项,其本身是对神经网络模型的优化与部署工具,简而言之就是模型本身比较大、可能不适合在边缘计算设备上运行,这个工具包可以将其从各类框架的模型转化为一种网络的中间表示(IR),用于描述这个模型,包括了两个部分:

        ①.xml 描述网络的拓扑结构

        ②.bin  网络的权重与偏置的二进制数据

推理引擎使用的是一套通用的 CPU ,可以在 CPU 、 GPU 以及 VPU 上进行运算,之前听OpenVINO的讲座发现这也可以算是这个工具套件的一大亮点,使得使用更加方便了。我们只需要在推理的时候选择运行设备为 VPU ,就可以自动部署网络到这类硬件级别的加速单元上进行高效的推理了,听说这款 Movidius 神经计算棒的功耗仅有1w左右,这样的效能比还是非常惊人的。

这类低成本的边缘神经网络的推理神器很适合编程爱好者与创客做一些需要用到神经网络的小作品。

二、下载安装

1.下载并安装 OpenVINO 安装包的 win10 发行版

这个工具包需要在https://software.intel.com/content/www/us/en/develop/tools/openvino-toolkit/choose-download/windows.html?elq_cid=6430695  下载,是一个免费的工具包,但是英特尔需要用户使用邮箱进行注册,我们按照提示选择页面上的【Register & Download】。进入注册页面,填写邮箱,选择下载 win10 版本。我们尽量在接下去的安装过程中都选择默认目录进行安装,将组件全部勾选进行安装,安装完成后可能提示缺少一些安装项,不要紧我们继续点击【Finish】完成即可。

file
file

2.下载与安装特定版本的python

【注意版本要求!!】

在 python 官网的 win10 版下载页面【https://www.python.org/downloads/windows/】 下载  python 文件进行安装, 

OpenVINO 对 python 的版本要求为 3.5-3.7 ,不要选择太高的版本,笔者之前一直用的最新的版本 3.8.x ,之后再运行 OpenVINO 的时候会报错。与我们平常安装 python 一样,记得要勾选将 python 添加到路径的选项,不然会运行时找不到。
file

3.下载安装VS2019与CMake3.14

【选对工作负载和版本!!尽量安装在默认目录!!】

官网对这两项依赖的要求是 CMake2.8.12 或更高以及 VS2017 或 2019 ,但是如果要使用 VS2019 的话就必须使用 CMake3.14 ,正常下载安装即可,但是有一点值得注意,那就是在 V S 进行安装的时候,需要勾选三个负载 【.NET 桌面开发】【使用 C++ 的桌面开发】【通用 windows 平台开发】,笔者一开始只勾选了一项导致后面在命令行中验证 OpenVINO 安装的时候会报错。

file

file

4.确定系统硬件要求

【看某些处理器是否不支持!!】

官网上列出的支持的硬件包括六代之后的酷睿、至强和神经计算棒等,但是笔者在实测 LattePanda Delta 时会报错,网上解释是不支持 AVX512 指令集,查遍网络也没发现解决方案,最终将运行设备从 CPU 切换为神经计算棒后可以正常运行,可能就是因为这块 LattePanda Delta 使用的是 N4100 处理器,不在官方支持的 N4200 / 5 , N3350 / 5 或 N3450 / 5 之列吧,在个人 PC(i7-8750H) 上运行时就没有这样的问题。

file

5.设置环境变量与配置模型优化器

只有设置完临时系统环境变量后才能进行下一步的工作,运行 C:\ Program Files(x86)\ IntelSWTools \ openvino \ bin \setupvars.bat 即可,后期可以按照官网上的教程手动设置永久环境变量。

之后要设置模型优化器,模型优化器是一个 python 文件,输入各种框架的模型文件或者 ONNX 这种通用模型文件格式,将其输出为中间表示文件 【IR】,用于进一步的部署与推理。目前了解下来, Caffe 和 Tensorflow 等框架是直接支持转换的,其他如 pytorch 等则需要先转化为 ONNX 再进行模型优化。

安装时可以选择一次配置完所有模型的优化器或者单独为某个模型配置优化器,运行 C:\ Program Files(x86)\ IntelSWTools \ openvino \ deployment_tools \ model_optimizer \ install_prerequisites目录下的install_prerequisites.bat 或 install_prerequisites_tf.bat 等文件即可。

笔者在为 tensorflow 配置优化器的时候报出了 tensorflow 版本不匹配的错误,卸载 tensorflow 后再运行这个批处理文件会自动再安装上,可以正常使用,推荐将 pip 先更换至国内镜像加快下载速度。

6.验证步骤

验证部分也只需要处理两个批处理文件。

在推理引擎目录 C:\ Program Files(x86)\ IntelSWTools \ openvino \ deployment_tools \ demo \ 下运行      demo_squeezenet_download_convert_run.bat 可以进行图形分类验证,

运行 demo_security_barrier_camera.bat 可以进行车牌识别,这两个模型也都是需要再重新下载和安装的,可能需要一些时间。

file

7.BAT中目录错误问题

刚才就提到了在下载和安装依赖的时候要尽量安装在默认目录,但是由于 LattePanda Delta 板载存储只有 32G ,笔者最后加了个128G 固态并把软件都安装在了非默认位置,但是点开 BAT 看发现疑似目录都是写在默认位置的,之后强行修改了 BAT 中的各目录才解决了这个问题。

file

如果你还在为自己的模型而发愁,不妨使用 OpenVINO 。如果你对建模感兴趣,不妨学学 OpenVINO 。更多精彩内容请关注 OpenVINO 中文社区。从小白到大佬的进阶之路,我们一路陪伴。

英特尔OpenVINO™(中级)认证地址:https://www.cvmart.net/list/OV2020
(官方权威认证证书+丰厚礼品+视频实操教程)

版权声明:自由转载-非商用-非衍生-保持署名(创意共享3.0许可证


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK