利用 Docker 的强大功能:简化部署解决方案、确保可扩展性并简化机器学习模型的 CI/CD 流程。
近年来,机器学习 (ML) 出现了爆炸性增长,导致对健壮、可扩展且高效的部署方法的需求不断增加。由于训练和服务环境之间的差异或扩展的困难等因素,传统方法通常需要帮助来操作机器学习模型。本文提出了一种使用 Docker 的技术,Docker 是一个开源平台,旨在自动化应用程序部署、扩展和管理,作为应对这些挑战的解决方案。所提出的方法将机器学习模型及其环境封装到标准化的 Docker 容器单元中。容器提供了许多好处,包括跨开发和生产环境的一致性、易于扩展以及部署简单。以下部分深入探讨了 Docker、它在 ML 模型部署中的作用,以及使用 Docker 部署 ML 模型的实际演示,从 Dockerfile 的创建到使用 Docker Swarm 扩展模型,所有这些都通过相关代码片段。此外,还介绍了Docker 在持续集成/持续部署 ( CI/CD ) 管道中的集成,最后得出了使用 Docker 进行高效 ML 模型部署的结论和最佳实践。
什么是 Docker?
作为一个平台,Docker 可在轻量级、便携式容器内自动执行软件应用程序部署、扩展和操作。Docker 的基本基础围绕“容器化”的概念。这种虚拟化方法允许将软件及其整个运行时环境打包到软件开发的标准化单元中。
Docker 容器封装了应用程序运行所需的所有内容(包括库、系统工具、代码和运行时),并确保它在不同的计算环境中表现一致。这促进了快速可靠地构建、测试和部署应用程序的过程,使 Docker 成为软件开发和运营 (DevOps) 的重要工具。
当谈到机器学习应用程序时,Docker 带来了几个优势。Docker 的容器化特性确保了 ML 模型的训练和服务环境之间的一致性,从而降低了因环境差异而出现差异的风险。Docker 还简化了扩展过程,允许在众多服务器上轻松部署 ML 模型的多个实例。这些功能有可能显着简化机器学习模型的部署并降低相关的操作复杂性。
为什么要将机器学习应用程序 Docker 化?
在机器学习应用程序中,Docker 提供了众多优势,每一项都对运营效率和模型性能做出了重大贡献。
首先,Docker容器提供的一致环境确保了开发、测试和生产阶段之间的差异最小。这种一致性消除了臭名昭著的“它可以在我的机器上运行”问题,使其成为部署机器学习模型的首选,因为机器学习模型对其操作环境的变化特别敏感。
其次,Docker 擅长促进可扩展性。机器学习应用程序通常需要运行同一模型的多个实例来处理大量数据或高请求率。Docker 通过允许快速高效地部署多个容器实例来实现水平扩展,使其成为扩展 ML 模型的有效解决方案。
最后,Docker 容器是隔离运行的,这意味着它们有自己的运行时环境,包括系统库和配置文件。这种隔离提供了额外的安全层,确保每个机器学习模型在受控且安全的环境中运行。Docker 提供的一致性、可扩展性和隔离性使其成为部署机器学习应用程序的有吸引力的平台。
为机器学习设置 Docker
本节重点介绍将 Docker 与机器学习应用程序结合使用所需的初始设置。Docker 的安装过程根据所使用的操作系统略有不同。对于 Linux 发行版,Docker 通常通过命令行界面安装,而对于 Windows 和 MacOS,则提供 Docker Desktop 版本。在每种情况下,Docker 网站都提供了易于遵循的详细安装说明。通过从 Docker Hub 拉取 Docker 映像来成功安装,Docker Hub 是一种基于云的注册表服务,允许开发人员共享应用程序或库。作为说明,可以使用以下命令提取最新的 Python 映像以用于机器学习应用程序:
docker pull python:3.8-slim-buster
随后,从拉取的镜像运行 Docker容器涉及到 docker run 命令。例如,如果需要交互式 Python shell,可以使用以下命令:
docker run -it python:3.8-slim-buster /bin/bash
此命令使用交互式终端 ( ) 启动 Docker 容器,并在 Python 容器内-it
提供 shell ( )。/bin/bash
通过遵循此流程,Docker 被有效地设置为协助部署机器学习模型。
为简单的 ML 模型创建 Dockerfile
Docker 操作简单性的核心是 Dockerfile,它是一个文本文档,其中包含组装 Docker 映像所需的所有命令。用户可以通过 Docker 命令行执行 Dockerfile 来自动化镜像创建过程。
Dockerfile 由一组连续行排列的指令和参数组成。指令是 Docker 命令,例如FROM
(指定基础映像)、RUN
(执行命令)、COPY
(将文件从主机复制到 Docker 映像)和CMD
(提供执行容器的默认值)。
考虑使用 Scikit-learn 的线性回归算法构建的简单机器学习模型作为实际说明。此类应用程序的 Dockerfile 可能如下所示:
# Use an official Python runtime as a parent image
FROM python:3.8-slim-buster
# Set the working directory in the container to /app
WORKDIR /app
# Copy the current directory contents into the container at /app
ADD . /app
# Install any needed packages specified in requirements.txt
RUN pip install --no-cache-dir -r requirements.txt
# Make port 80 available to the world outside this container
EXPOSE 80
# Run app.py when the container launches
CMD ["python", "app.py"]
此 Dockerfile 中提到的文件requirements.txt
列出了机器学习模型的所有 Python 依赖项,例如 Scikit-learn、Pandas 和 Flask。另一方面,该app.py
脚本包含加载经过训练的模型并将其用作 Web 应用程序的代码。
通过在该 Dockerfile 中定义配置和依赖项,可以创建一个镜像来容纳机器学习模型及其执行所需的运行时环境,从而促进一致的部署。
构建和测试 Docker 镜像
成功创建 Dockerfile 后,后续阶段涉及构建 Docker 映像。Docker 镜像是通过执行docker build
命令构建的,后跟包含 Docker 文件的目录。该-t
标志用指定的名称标记图像。此类命令的一个实例是:
docker build -t ml_model_image:1.0
这里,ml_model_image:1.0
是分配给镜像的名称(和版本),而“ .
”表示 Dockerfile 位于当前目录中。
构建 Docker 映像后,以下任务涉及从此映像启动 Docker 容器,从而测试机器学习模型的功能。该docker run
命令有助于实现这一目标:
docker run -p 4000:80 ml_model_image:1.0
在此命令中,该-p
标志将主机的端口 4000 映射到容器的端口 80(如 Dockerfile 中所定义)。因此,机器学习模型可以通过主机的4000端口访问。
测试模型需要向 Docker 容器内 Flask 应用程序公开的端点发送请求。例如,如果模型根据通过 POST 请求发送的数据提供预测,则该curl
命令可以促进这一点:
curl -d '{"data":[1, 2, 3, 4]}' -H 'Content-Type: application/json' http://localhost:4000/predict
所提出的方法确保了从 Dockerfile 创建到在 Docker 容器内测试 ML 模型的无缝流程。
使用 Docker 部署 ML 模型
机器学习模型的部署通常涉及将模型公开为可通过互联网访问的服务。实现此目标的标准方法是使用 Flask 等 Web 框架将模型作为 REST API 提供服务。
考虑一个 Flask 应用程序封装机器学习模型的示例。以下 Python 脚本说明了如何将模型公开为 REST API 端点:
from flask import Flask, request
from sklearn.externals import joblib
app = Flask(__name__)
model = joblib.load('model.pkl')
@app.route('/predict', methods=['POST'])
def predict():
data = request.get_json(force=True)
prediction = model.predict([data['features']])
return {'prediction': prediction.tolist()}
if __name__ == '__main__':
app.run(host='0.0.0.0', port=80)
在此示例中,Flask 应用程序加载预先训练的 Scikit-learn 模型(另存为model.pkl
)并定义单个 API 端点/predict
。当使用包含一组特征的 JSON 对象将 POST 请求发送到此端点时,模型会进行预测并将其作为响应返回。
一旦 ML 模型在 Docker 容器中部署并运行,就可以使用 HTTP 请求进行通信。例如,使用该curl
命令,可以将 POST 请求发送到具有一系列特征的模型,并且它将通过预测进行响应:
curl -d '{"features":[1, 2, 3, 4]}' -H 'Content-Type: application/json'
http://localhost:4000/predict
这个实际示例演示了 Docker 如何促进将机器学习模型部署为可扩展且可访问的服务。
使用 Docker Swarm 扩展 ML 模型
随着机器学习应用程序范围和用户群的增长,扩展能力变得越来越重要。Docker Swarm 为 Docker 提供了原生集群和编排解决方案,允许将多个 Docker 主机变成单个虚拟主机。因此,Docker Swarm 可用于管理和扩展跨多台机器部署的机器学习模型。
启动 Docker Swarm 是一个简单的过程,通过执行“docker swarm init”命令开始。此命令将当前机器初始化为 Docker Swarm 管理器:
docker swarm init --advertise-addr $(hostname -i)
在此命令中,该--advertise-addr
标志指定工作节点可以访问 Swarm 管理器的地址。该hostname -i
命令检索当前计算机的 IP 地址。
Swarm 初始化后,可以使用 Docker 服务在 Swarm 上部署机器学习模型。该服务是使用以下docker service create
命令创建的,其中类似的标志--replicas
可以指示要运行的容器实例的数量:
docker service create --replicas 3 -p 4000:80 --name ml_service ml_model_image:1.0
在此命令中,--replicas 3
确保容器的三个实例在 Swarm 上运行,-p 4000:80
将 Swarm 的端口 4000 映射到容器的端口 80,并--name ml_service
为服务分配一个名称。
因此,通过实施 Docker Swarm,部署的机器学习模型可以跨多个 Docker 主机有效扩展,从而增强其可用性和性能。
使用 Docker 进行持续集成/持续部署 (CI/CD)
持续集成/持续部署(CI/CD)是现代软件开发的重要方面,促进自动化测试和部署,以确保软件发布周期的一致性和速度。Docker 的可移植性非常适合 CI/CD 管道,因为 Docker 映像可以在管道的各个阶段构建、测试和部署。
可以使用 Jenkins 管道来说明将 Docker 集成到 CI/CD 管道的示例。管道在 Jenkinsfile 中定义,可能如下所示:
pipeline {
agent any
stages {
stage('Build') {
steps {
script {
sh 'docker build -t ml_model_image:1.0 .'
}
}
}
stage('Test') {
steps {
script {
sh 'docker run -p 4000:80 ml_model_image:1.0'
sh 'curl -d '{"features":[1, 2, 3, 4]}' -H 'Content-Type: application/json' http://localhost:4000/predict'
}
}
}
stage('Deploy') {
steps {
script {
sh 'docker service create --replicas 3 -p 4000:80 --name ml_service ml_model_image:1.0'
}
}
}
}
}
在此 Jenkinsfile 中,该Build
阶段构建 Docker 映像,该Test
阶段运行 Docker 容器并向机器学习模型发送请求以验证其功能,该Deploy
阶段创建 Docker 服务并将其扩展至 Docker Swarm。
因此,借助Docker,CI/CD管道可以实现机器学习模型的可靠、高效部署。
结论和最佳实践
最后,本文强调了 Docker 在简化机器学习模型部署方面的功效。将模型及其依赖项封装在隔离、一致和轻量级环境中的能力使 Docker 成为机器学习从业者的强大工具。进一步增强其价值的是 Docker 通过 Docker Swarm 跨多台机器扩展机器学习模型的潜力及其与 CI/CD 管道的无缝集成。
然而,为了从 Docker 中获取最大价值,建议使用某些最佳实践:文章来源:https://www.toymoban.com/news/detail-648395.html
- 最小化 Docker 映像大小: 较小的映像使用较少的磁盘空间、减少构建时间并加快部署速度。这可以通过使用较小的基础映像、删除不必要的依赖项并有效利用 Docker 的层缓存来实现。
- 使用 .dockerignore: 与 Git 中的 .gitignore 类似,.dockerignore 可以防止 Docker 镜像中包含不必要的文件,从而减小其大小。
- 确保 Dockerfile 是可重现的:使用特定版本的基础映像和依赖项可以防止将来构建 Docker 映像时发生意外更改。
通过遵守这些准则并充分利用 Docker 的功能,解决部署机器学习模型的复杂性变得更加可行,从而加速从开发到生产的过程。文章来源地址https://www.toymoban.com/news/detail-648395.html
到了这里,关于AI 实力:利用 Docker 简化机器学习应用程序的部署和可扩展性的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!