Docker:使用Nvidia官方的pytorch、tensorflow、TensorRT镜像创建Container容器

这篇具有很好参考价值的文章主要介绍了Docker:使用Nvidia官方的pytorch、tensorflow、TensorRT镜像创建Container容器。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

文章目录

前言

一、前期准备

二、具体步骤

1.启动容器

2.使用容器

补充


前言

相信大家在学习新的知识前都遇到过开发环境安装不上,或者环境冲突和版本不匹配的情况,另外当我们想要安装多个版本的支持库时,在本地环境上直接安装往往会导致版本冲突的情况,如果我们使用虚拟机或者WSL技术新建一个完整系统,这又往往需要耗费很长时间,同时在我们学习深度学习等相关技术时,我们需要使用到显卡进行计算,虚拟机调用显卡很不方便,同时CUDA、cuDNN、cuBLAS、TensorRT等GPU计算支持库都有强版本依赖,手动安装需要耗费很长时间,因此本文介绍通过docker的容器技术来实现使用Nvidia官方提供的镜像库创建 container容器。

一、前期准备

本文将以创建一个包含python=3.8、CUDA=12.1、cuBLAS=12.1 、cuDNN=8.9、TensorRT=8.6.1、pytorch的container为例,介绍使用docker创建各种深度学习开发环境的详细流程。下面是Nvidia Container Toolkit的官方链接。

Installing the NVIDIA Container Toolkit — NVIDIA Container Toolkit 1.14.4 documentationhttps://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html本文需要您提前安装好docker,如果您是第一次使用docker,十分建议您安装docker桌面版。

Docker: Accelerated Container Application Developmenthttps://www.docker.com/

二、具体步骤

1.启动容器

docker run -it -e NVIDIA_VISIBLE_DEVICES=0 --gpus "device=0" --name trt-cookbook \
--shm-size 16G --ulimit memlock=-1 --ulimit stack=67108864 \
-v ~:/work \
nvcr.io/nvidia/pytorch:23.04-py3 /bin/bash

这个命令是用于在 Docker 容器中运行一个名为 “trt-cookbook” 的容器,它包含了 NVIDIA 的 CUDA 支持和 PyTorch 深度学习框架。以下是命令的各个部分的解释:

  • docker run:运行一个 Docker 容器。
  • -it:在交互模式下运行容器。
  • -e NVIDIA_VISIBLE_DEVICES=0:设置环境变量 NVIDIA_VISIBLE_DEVICES 的值为 0,这表示仅将第一个 NVIDIA 可见设备(显卡)分配给容器。
  • --gpus "device=0":显式指定将第一个 GPU 分配给容器。
  • --name trt-cookbook:为容器指定一个名称为 “trt-cookbook”。
  • --shm-size 16G:设置容器内共享内存大小为 16GB。
  • --ulimit memlock=-1:设置容器的内存锁定限制为无限制,这意味着容器可以使用任意数量的内存。
  • --ulimit stack=67108864:设置容器的堆栈大小限制为 64MB。
  • -v ~:/work:将主机的家目录 ~ 挂载到容器的 /work 目录,这样你可以在容器中访问主机上的文件。
  • nvcr.io/nvidia/pytorch:23.04-py3:使用 NVIDIA 这个 Docker 镜像,它包含了 PyTorch 深度学习框架和其他依赖库的预安装版本。
  • /bin/bash:在容器中启动一个交互式的 Bash 终端。

通过运行这个命令,你将会在一个 Docker 容器中获得一个预配置的 PyTorch 环境,你可以在其中运行深度学习代码。

当终端出现下面Logs后,表明docker容器已经创建并运行。

Docker:使用Nvidia官方的pytorch、tensorflow、TensorRT镜像创建Container容器,Docker,docker,pytorch,容器

注意:该命令将在线下载Nvidia提供的镜像,文件较大,因此耗时较长,请耐心等待并注意网络设置。

2.使用容器

当上一步的命令运行完成,可以在docker的Containers目录下看到一个trt-cookbook容器,点击Open in terminal 即可在终端使用该容器。

Docker:使用Nvidia官方的pytorch、tensorflow、TensorRT镜像创建Container容器,Docker,docker,pytorch,容器

容器创建完成!仅需要一行命令即可,由于Nvidia的镜像中已经安装好了全部的GPU计算库,因此容器无需手动安装CUDA、pytorch等。


补充

如何打开多个docker终端?

使用docker exec -it 容器id /bin/bash命令进入容器

docker exec -it e3a6dba4d /bin/bash

 大功告成!文章来源地址https://www.toymoban.com/news/detail-825907.html

到了这里,关于Docker:使用Nvidia官方的pytorch、tensorflow、TensorRT镜像创建Container容器的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 使用docker搭建RocketMQ(非集群搭建官方镜像)

    之前在使用 RocketMQ 官方的包在搭建的时候,发现好多问题,什么修改内存大小,然后启动 broker 报错,类似 service not available now, maybe disk full 等等… 最后决定还是重新用 docker 搭建下,感觉这样子玩坏了,可以直接把容器干掉,重新启动一个新的容器,毕竟是在学习阶段,这

    2024年02月13日
    浏览(55)
  • Storm学习之使用官方Docker镜像快速搭建Storm运行环境

    Apache Storm 官方也出了Docker 镜像 https://hub.docker.com/_/storm/ 本文我们就基于官方镜像搭建一个 Apache Storm 2.4 版本的运行环境,供大家后续学习。 有问题可以参考issue 解决, 我的安装过程一路都很顺畅。所以基本上没有看下面是我的详细操作和截图 。 可以说网上的乱七八糟的教

    2024年02月14日
    浏览(58)
  • tensorflow 1.15 gpu docker环境搭建;Nvidia Docker容器基于TensorFlow1.15测试GPU;——全流程应用指南

    TensorFlow 在新款 NVIDIA Pascal GPU 上的运行速度可提升高达 50%,并且能够顺利跨 GPU 进行扩展。 如今,训练模型的时间可以从几天缩短到几小时 TensorFlow 使用优化的 C++ 和 NVIDIA® CUDA® 工具包编写,使模型能够在训练和推理时在 GPU 上运行,从而大幅提速 TensorFlow GPU 支持需要多个

    2024年02月03日
    浏览(61)
  • CentOS7系统Nvidia Docker容器基于TensorFlow2.12测试GPU

    CentOS7系统Nvidia Docker容器基于TensorFlow1.15测试GPU  参考我的另一篇博客 1. 版本依赖对应关系:从源代码构建  |  TensorFlow GPU 版本 Python 版本 编译器 构建工具 cuDNN CUDA tensorflow-2.6.0 3.6-3.9 GCC 7.3.1 Bazel 3.7.2 8.1 11.2 tensorflow-2.5.0 3.6-3.9 GCC 7.3.1 Bazel 3.7.2 8.1 11.2 tensorflow-2.4.0 3.6-3.8 GCC 7.

    2024年02月15日
    浏览(51)
  • [docker]nvidia的cuda镜像列表

    使用方法: docker pull 镜像地址 镜像地址为2023年8月以前所有: nvcr.io/nvidia/cuda:12.2.0-runtime-ubuntu22.04 nvcr.io/nvidia/cuda:12.2.0-runtime-ubuntu20.04 nvcr.io/nvidia/cuda:12.2.0-runtime-ubi9 nvcr.io/nvidia/cuda:12.2.0-runtime-ubi8 nvcr.io/nvidia/cuda:12.2.0-runtime-ubi7 nvcr.io/nvidia/cuda:12.2.0-runtime-rockylinux9 nvcr.io/nvidia/c

    2024年02月09日
    浏览(51)
  • docker 获取Nvidia 镜像 | cuda |cudnn

    本文分享如何使用docker获取Nvidia 镜像,包括cuda10、cuda11等不同版本,cudnn7、cudnn8等,快速搭建深度学习环境。 1、来到docker hub官网,查看有那些Nvidia 镜像 https://hub.docker.com/r/nvidia/cuda/tags?page=2name=11.3   这里可以输入cuda的版本比如11.6,或筛选出相关的镜像: https://hub.docker.c

    2024年02月08日
    浏览(41)
  • 在docker里使用gpu的解决方案(镜像内安装驱动使用nvidia-smi后显示Failed to initialize NVML: Driver/library version mismatch)

    要么在docker环境内安装nvidia-driver 但容易和外面的版本不一致导致各种报错version mismatch之类的 不如使用nvidia-docker,这是一个nVidia官方为了方便在docker镜像容器内使用gpu做的包: 1. 保证docker环境内没有nvidia驱动程序,防止后续配置出现驱动版本不一致的情况         找到你要

    2024年01月21日
    浏览(50)
  • Pytorch TensorRT 安装使用流程

    安装流程1 安装流程2 执行命令: 需要等待一会,等待安装完成。 配置 trtexec或路径工具创建engine文件 创建完成后,生成对应engine文件

    2024年02月13日
    浏览(46)
  • docker 部署oracle(官方镜像)

    docker部署oracle,网上都说官方镜像下载慢。而且使用的都是阿里的registry。我试了下官方镜像,半个多小时pull完。也没多慢啊!下面就来说说安装和配置过程: 1、拉去镜像: 2、查看镜像: 3、创建并运行容器: 4、登录到容器: 或者sudo docker ps -a 查看容器id讲oracle11g替换成

    2024年02月15日
    浏览(37)
  • Docker容器的官方镜像仓库

    镜像仓库分类 公有仓库 私有仓库 官方镜像仓库属于公有仓库 网址: hub.docker.com        网站名称:dockerhub 注册邮箱 创建仓库 创建自己的仓库 登录仓库  web界面登录 linux命令行登录  直接docker login 输入用户名和密码 这个自己创建的存储库一般只有pull时才会登录 push上传

    2024年02月08日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包