1 下载安装OpenVINO开发工具
先在anaconda中创建一个虚拟环境,该环境的python版本为3.7,之所以使用python3.7,是因为我在3.9上安装过程中出现不少bug,后面新建了一个3.7的环境才解决,我不知道是否由于和我已有环境中某些包不兼容,还是python3.9版本的问题,总是折腾了很久都没解决,最后新建了一个虚拟环境。
地址
实际上就是下面这条命令:
pip install openvino-dev[pytorch]==2023.0.1
这里可以使用清华镜像或者阿里镜像
接下来使用下面这串代码,测试是否安装成功,如果没有报错,说明OpenVINO安装成功
python -c "from openvino.runtime import Core"
2 查看可用设备
下面是查看本地可用设备
from openvino.runtime import Core
core = Core()
devices = core.available_devices
for device in devices:
device_name = core.get_property(device, "FULL_DEVICE_NAME")
print(f"{device}: {device_name}")
输出:
CPU: Intel(R) Core(TM) i7-10870H CPU @ 2.20GHz
GPU.0: Intel(R) UHD Graphics (iGPU)
GPU.1: NVIDIA GeForce RTX 3060 Laptop GPU (dGPU)
这里有两个GPU,一个是集显,一个是独显。
3 模型的中间表示
在OpenVINO的使用过程中,经常可以听见一个词叫IR,它的全程叫Intermediate Representation,即模型的中间表示,主要包括.xml
文件和.bin
文件,前者用于描述网络拓扑(即网络结构),后者则是包含了网络中的权重和偏置的二进制数据文件,IR是OpenVINO中模型的专有格式。
由于模型的部署环境通常不会安装PyTorch、TensorFlow这些深度学习框架,因此在训练完成之后,一般是将模型导出为onnx文件,这样可以摆脱对框架和模型所属类的依赖。ONNX定义了一组与环境和平台无关的标准格式,为AI模型的互操作性提供了基础,使AI模型可以在不同框架和环境下交互使用。硬件和软件厂商可以基于ONNX标准优化模型性能,让所有兼容ONNX标准的框架受益,简单来说,ONNX就是模型转换的中间人。
在一些比较老的教程中,是拿到onnx文件后,将其转化为IR,然后OpenVINO再读取IR文件,并将其编译到硬件上面进行推理,这是之前OpenVINO推荐的部署流程,代码如下(只显示转化成IR的代码):
from openvino.tools import mo
from openvino.runtime import serialize # pycharm可能会提示找不到serialize,但实际能执行,IDE有bug
ov_model = mo.convert_model(onnx_path) # onnx_path是onnx文件的路径,ov_model是OpenVINO模型
serialize(ov_model, xml_path) # xml_path是IR中xml文件的路径
serialize
方法不但会生成xml文件,还会在相同目录下生成bin文件,mo.convert_model
可以完成模型的压缩、剪枝、前处理、设置输入等操作,这个能力很加分,但本文的目的是了解OpenVINO的大致使用流程,关于模型的压缩剪枝等操作暂时不展开,可以看官方手册详细了解mo.conver_model
的功能链接
如果在训练环境中安装了OpenVINO2023,那么可以在训练结束后,跳过ONNX,直接将模型转化为OpenVINO的IR,代码如下:
from openvino.tools import mo
from openvino.runtime import serialize
ov_model = mo.convert_model(net) # net是PyTorch模型,ov_model是OpenVINO模型
serialize(ov_model, xml_path)
注意:将PyTorch模型直接转换成OpenVINO模型,这项功能仅仅是OpenVINO 2023.0 release才开始有的,在OpenVINO 2022之前都不支持,另外,因为这项功能比较新,因此并不是所有模型都能这么转,假如转换失败,还能老老实实先转ONNX,再转IR。
4 模型推理
得到IR之后(IR既可以在训练环境直接右PyTorch模型得到,也可以在部署环境中通过ONNX文件得到),将其读取到OpenVINO模型,然后编译到指定设备,就可以进行推理了,代码如下(省略了输入数据预处理的操作,比如图像缩放、数据压缩到0-1等):
from openvino.runtime import Core
# 创建推理核
core = Core()
# 读取IR文件
ov_model = core.read_model(model=ir_path) # ir_path是IR中xml文件的路径
# 编译到指定设备
compiled_model = core.compile_model(ov_model, 'CPU') # 'CPU'可以改成'GPU.0'、'GPU.1'或'AUTO'
# res是推理结果
res = compiled_model(input_data)[0] #
设备除了CPU之外,还可以是GPU.0或GPU.1,也可以让系统自动选择(AUTO),看自己的电脑上有什么设备,可以使用core.available_devices
,详见第2节;推理时,input_data
,既可以是torch的tensor,也可以是numpy的array;
上面的流程是标准流程,实际上,自从OpenVINO2020R04之后,core.read_model
可以直接读onnx文件,这使得我们可以跳过IR那一步(但据说OpenVINO加载onnx文件会比加载IR文件更慢,不过对推理速度无影响,可以做个实验验证一下),代码如下:
from openvino.runtime import Core
core = Core()
# 读取onnx文件
ov_model = core.read_model(model=onnx_path) # onnx_path是onnx文件的路径
# 编译到指定设备
compiled_model = core.compile_model(ov_model, 'CPU')
# res是推理结果
res = compiled_model(input_data)[0]
其实,也可以使用mo.convert_model
将onnx模型转成OpenVINO模型后编译到指定设备,但这需要部署环境中有OpenVINO开发工具(即openvino.tools
),而一般情况下,部署环境中没这个,只有runtime(即openvino.runtime
),所以这种方式用的不多。
5 根据IR或ONNX文件获取模型的输入输出尺寸和数据类型
在很多大公司中,算法模型的研发与部署不是同一批人做,部署人员拿到 IR/ONNX 文件之后,需要知道模型的输入shape是什么,数据类型是什么,OpenVINO中可以根据模型文件获得相关信息。
我们先创建一个ONNX文件,程序如下:
import torch
from torchvision import models
# 定义模型并下载权重
model = models.resnet18(pretrained=True, num_classes=1000)
# 导出ONNX文件
model.eval()
dummy_input = torch.randn(1, 3, 228, 228)
torch.onnx.export(model, (dummy_input), 'resnet18.onnx')
此时,当前目录下会有一个名为resnet18.onnx的模型文件,假设这是别人给你的,你不知道它的输入输出信息,你想获得它的输入输出,可以使用如下程序:
from openvino.runtime import Core
# 创建推理核
core = Core()
# 读取ONNX文件并编译到指定设备
ov_model = core.read_model(model='resnet18.onnx')
compiled_model = core.compile_model(ov_model, 'CPU')
# 获取模型的输入输出信息
input_key = compiled_model.input(0)
output_key = compiled_model.output(0) # 如果获得了output_key,推理时可以写成compiled_model(input_data)[output_key]
# 打印输入输出信息
print('input_key:', input_key)
print('output_key:', output_key)
print('input_key.shape:', input_key.shape)
print('output_key.shape:', output_key.shape)
打印如下:
input_key: <ConstOutput: names[input.1] shape[1,3,228,228] type: f32>
output_key: <ConstOutput: names[191] shape[1,1000] type: f32>
input_key.shape: [1,3,228,228]
output_key.shape: [1,1000]
好的,我们可以看到该ONNX文件对应的模型,其输入的shape为(1,3,228,228)
,数据类型为f32(即单精度浮点型),输出的shape为(1, 1000)
,数据类型为f32。
6 总结
本文介绍了如何使用OpenVINO部署PyTorch模型,主要内容可以用下面几幅图表示
好了,至此,当我们得到一个PyTorch模型后,已经可以将其部署到OpenVINO上去了,当然,由于篇幅所限,还有很多细节没有展开,我们今天先把Pipeline打通,日后会具体介绍。文章来源:https://www.toymoban.com/news/detail-684039.html
https://docs.openvino.ai/2023.0/notebooks/102-pytorch-to-openvino-with-output.html
https://docs.openvino.ai/2023.0/notebooks/102-pytorch-onnx-to-openvino-with-output.html
https://docs.openvino.ai/2023.0/openvino_docs_model_processing_introduction.html
https://mp.weixin.qq.com/s?__biz=MzU2NjU3OTc5NA==&mid=2247560125&idx=2&sn=001988bca941a9404ac8fe7a351b514d&chksm=fca9ec80cbde659689922250b3138e752cfccf50fde18f07016b7673bf1289bb8bd25bb4f636&scene=27文章来源地址https://www.toymoban.com/news/detail-684039.html
到了这里,关于OpenVINO2023使用简介的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!