torchserve安装、模型的部署与测试(基于docker)

这篇具有很好参考价值的文章主要介绍了torchserve安装、模型的部署与测试(基于docker)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

问题描述

pytorch 一直很受大家的欢迎,但是作为一个深度模型,与外界复杂的业务需求交互其实是一件比较麻烦的事情,这里 torchserve 提供一个基于 TCP 的交互方法,算法模型部署后,用户可以通过提交 post 请求,将数据传送给 torchserve 并获得算法结果。

docker 环境

不管是 mac os 或者 windows 、linux ,均需要安装好 docker 环境,此步骤安装简单,全网教程也非常多,一般按照官方提供的安装脚本或软件即可正常安装。

docker 添加 torchserve

首先查看一下 docker 已经安装的镜像:

$ sudo docker images

因为我当前没有安装任何环境,输出内容为:
torchserve docker,深度学习,docker,容器,运维
若未安装,则输入如下命令安装 torchserve。

$ sudo docker pull pytorch/torchserve:latest

这个过程可能需要消耗一些时间。

再次输入如下命令,可以看到:

$ sudo docker images

torchserve docker,深度学习,docker,容器,运维

打包模型为 mar 文件

如果已经训练好 pytorch 的模型(.pt 文件),需要打包成为 .mar 文件后方能作为 torchserve 能调用的模型,即需要使用 torch-model-archiver 对已有的 .pt 文件打包,方法如下:

torch-model-archiver -f --model-name shape_cnn \
--version 1.0 \
--serialized-file 模型对应的pt文件.pt \
--handler 预处理与后处理的文件.py \
--export-path 导出mar文件的路径

启动 torchserve 提供服务

上个步骤中有提到导出mar文件的路径,这里注意需要保证如下命令中的第二行的路径为 mar 文件的所在路径,因为在模型的注册的时候将会在这个目录下寻找 mar 文件(也就是这里的 /home/yan/models)。

$ sudo docker run --rm -it -d -p 8280:8080 -p 8281:8081 -p 8282:8082 \
       --name torchserve -v /home/yan/models:/home/model-server/model-store \
       pytorch/torchserve:latest

启动后,将会通过 TCP 协议接收外界的一些模型相关操作。注意这里还没有注册模型,也就是还没法提供算法服务,只是启动了平台,算法需要在这个平台上注册才能提供服务。

注册模型

这里需要发送一个 POST 请求,注册模型,注意注册的模型需要确保启动 torchserve 时配置的文件夹中有对应的 .mar 文件。

$ curl --location --request POST 'http://localhost:8281/models' \
	   --header 'Content-Type: application/json' \
	   --data-raw '{
		    "url": "my_cnn.mar",
		    "batch_size": 64,
		    "initial_workers": 1
	   }'

测试

运行模型后,我们需要注意post请求中有个 url 参数,这个对应的是提供服务的地址,接下来的测试均需要访问这个路径。

$ curl --location --request POST 'http://localhost:8280/predictions/my_cnn' \
--header 'Content-Type: application/json' \
--data-raw '测试数据数据'

一般情况下会输出算法的结果,也就是前面提到打包时 --handler 预处理与后处理的文件.py 这个文件实现的内容。

总结

torchserve 是一个很好的工具,通过 tcp 协议完成算法模型与测试的交互,比如人脸识别模型可能需要训练很长时间才能完成,并且测试的时候可能在其他设备中,比如门禁、移动电话等等。

Smileyan
2023.02.28 19:58文章来源地址https://www.toymoban.com/news/detail-603159.html

到了这里,关于torchserve安装、模型的部署与测试(基于docker)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 基于docker部署的Selenium Grid分布式自动化测试

    Selenium Grid是Selenium套件的一部分,它专门用于并行运行多个测试用例在不同的浏览器、操作系统和机器上。 Selenium Grid有两个版本——老版本Grid 1和新版本Grid 2。我们只对新版本做介绍,因为Selenium团队已经逐渐遗弃老版本了。 Selenium Grid 主要使用 master-slaves (or hub-nodes) 理念

    2024年02月13日
    浏览(33)
  • llama.cpp LLM模型 windows cpu安装部署;运行LLaMA-7B模型测试

    参考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安装参考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下载: 2、编译 3、测试运行 参考: https://zhuanlan.zhihu.com/p/638427280 模型下载: https://huggingface.co/nya

    2024年02月15日
    浏览(54)
  • llama.cpp LLM模型 windows cpu安装部署;运行LLaMA2模型测试

    参考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安装参考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下载: 2、编译 3、测试运行 参考: https://zhuanlan.zhihu.com/p/638427280 模型下载: https://huggingface.co/nya

    2024年02月16日
    浏览(45)
  • Zabbix最简易安装部署:基于docker容器

    zabbix 读音: 正确读法: [`zæbiks] ,中文发音:擦日阿(ra)贝克斯 zabbix 是一个基于WEB界面的提供分布式系统监视以及网络监视功能的企业级的开源解决方案。 zabbix 能监视各种网络参数,保证服务器系统的安全运营;并提供灵活的通知机制以让系统管理员快速定位/解决存在

    2024年02月12日
    浏览(53)
  • [Docker实现测试部署CI/CD----相关服务器的安装配置(1)]

    CI,Continuous Integration,持续集成。即将持续不断更新的代码经构建、测试后也持续不断的集成到项目主干分支。 CD,包含两层含义:Continuous Delivery,持续交付,和 Continuous Deployment,持续 部署。 持续交付:是持续集成的后续步骤,持续频繁地将软件的新版本交付到类生产环境

    2024年02月14日
    浏览(51)
  • [Docker实现测试部署CI/CD----相关服务器的安装配置(2)]

            Jenkins 是一个开源软件项目,是基于 Java 开发的一种持续集成工具,用于监控持续重复的工作,旨在提供一个开放易用的软件平台,使软件项目可以进行持续集成。 下载Linux版本的jdk,解压到/usr/local目录 进入 /etc/profile 目录,设置环境变量 刷新配置文件,输入

    2024年02月14日
    浏览(56)
  • 【环境搭建:onnx模型部署】onnxruntime-gpu安装与测试(python)

    onnx 模型在 CPU 上进行推理,在conda环境中直接使用pip安装即可 想要 onnx 模型在 GPU 上加速推理,需要安装 onnxruntime-gpu 。有两种思路: 依赖于 本地主机 上已安装的 cuda 和 cudnn 版本 不依赖于 本地主机 上已安装的 cuda 和 cudnn 版本 要注意:onnxruntime-gpu, cuda, cudnn三者的版本要对

    2024年02月07日
    浏览(50)
  • 基于Jenkins+Python+Ubuntu+Docker的接口/UI自动化测试环境部署详细过程

    学习官网:Jenkins官网,Jenkins中文官网; Jenkins 是一款开源 CICD 软件,用于自动化各种任务,包括构建、测试和部署软件; 用 Java 语言编写的,可在 Tomcat 、 Docker 等流行的容器中运行,也可独立运行。 通俗的讲,比如把编译、打包、上传、部署到Tomcat中的过程交由Jenkins,

    2024年02月13日
    浏览(53)
  • 基于CentOS7.9安装部署docker(简洁版)

    官方文档: https://docs.docker.com/engine/install/centos/ 阿里云文档:docker-ce镜像_docker-ce下载地址_docker-ce安装教程-阿里巴巴开源镜像站 # step 1: 安装必要的一些系统工具 sudo yum install -y yum-utils device-mapper-persistent-data lvm2 # Step 2: 添加软件源信息 sudo yum-config-manager --add-repo https://mirrors

    2024年02月12日
    浏览(66)
  • 基于Docker和Springboot两种方式安装与部署Camunda流程引擎

    Camunda 相对于其他流程引擎的优势在于开源性、 BPMN 2.0 支持、可扩展性、轻量级和高性能,以及可观察性。并且 Camunda 支持独立平台的方式部署流程引擎,这更有利于分布式的项目。本文以 7.18.0 版本为例,介绍了: Docker Spring Boot 两种安装和部署 Camunda 流程引擎的方式。 D

    2024年03月16日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包