docker 获取Nvidia 镜像 | cuda |cudnn

这篇具有很好参考价值的文章主要介绍了docker 获取Nvidia 镜像 | cuda |cudnn。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文分享如何使用docker获取Nvidia 镜像,包括cuda10、cuda11等不同版本,cudnn7、cudnn8等,快速搭建深度学习环境。

1、来到docker hub官网,查看有那些Nvidia 镜像

https://hub.docker.com/r/nvidia/cuda/tags?page=2&name=11.3
 

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

这里可以输入cuda的版本比如11.6,或筛选出相关的镜像:

https://hub.docker.com/r/nvidia/cuda/tags?page=1&name=11.6

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

旁边还有镜像名称的排序方式:

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

2、拉取镜像到本地

选择好想要的镜像,比如:11.3.1-cudnn8-devel-ubuntu20.04

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

点击右边的复制按键

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

复制到命令:

docker pull nvidia/cuda:11.3.1-cudnn8-devel-ubuntu20.04

然后到命令终端执行:

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

这时就开始把nvidia/cuda:11.3.1-cudnn8-devel-ubuntu20.04镜像,拉到本地啦,需要等待一会。

3、查看镜像,打开镜像

拉取镜像完成后,用docker images命令查看镜像的情况:

docker images

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

能看到nvidia/cuda:11.3.1-cudnn8-devel-ubuntu20.04镜像在本地了,镜像大小是8.95G。

打开镜像(常规模式--支持使用GPU)

docker run -i -t --gpus all nvidia/cuda:11.3.1-cudnn8-devel-ubuntu20.04  /bin/bash

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

打开镜像(增强模式--支持使用GPU、映射目录、设置内存)

docker run -i -t -v /home/liguopu/:/guopu:rw --gpus all --shm-size 16G nvidia/cuda:11.3.1-cudnn8-devel-ubuntu20.04  /bin/bash

平常进入了docker环境,然后创建或产生的文件,在退出docker环境后会“自动销毁”;或者想运行本地主机的某个程序,发现在docker环境中找不到。

我们可以通过映射目录的方式,把本地主机的某个目录,映射到docker环境中,这样产生的文件会保留在本地主机中。

通过-v 把本地主机目录 /home/liguopu/ 映射到docker环境中的/guopu 目录;其权限是rw,即能读能写。

默认分配很小的内参,在训练模型时不够用,可以通过参数设置:比如,我电脑有32G内参,想放16G到docker中使用,设置为 --shm-size 16G。

4、测试镜像cuda和cudnn

用nvidia-smi看看显卡信息

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

这里看到的CUDA Version: 11.4,是和主机一致的,但我们想要的是11.3,没关系继续往下看。

用nvcc -V 命令查看,才是实际的cuda版本,后面搭建深度学习环境,也是依赖这里的cuda 11.3。

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

用ls /usr/local/命令看看cuda安装路径

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

下面就开始搭建深度学习环境啦

5、安装conda环境

默认的系统镜像可能没有conda也没有python,我们可以安装Anaconda,来搭建深度学习环境

 这里有两个下载地址可以选择,分别是官方下载地址、清华大学开源软件镜像站。

官方下载地址:Free Download | Anaconda

 如果觉得官方地址下载慢,可以尝试下清华大学的下载地址:

清华大学开源软件镜像站:Index of /anaconda/archive/ | 清华大学开源软件镜像站 | Tsinghua Open Source Mirror

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu 

比如选择:Anaconda3-2023.07-2-Linux-x86_64.sh 

安装Anaconda3

进入下载文件的位置,打开终端terminal在文件目录下,使用bash 执行安装就可以啦:

bash Anaconda3-2023.07-2-Linux-x86_64.sh

安装过程:

1)输入回车键确认安装;

2)阅读Anaconda最终用户许可协议,按下回车浏览完信息;

3)问我们是否接受该协议,只能接受了,输入yes;(Do you accept the license terms? [yes|no])

4)提示安装到以下位置,回车确认即可;(Anaconda3 will now be installed into this location:)

5)是否加入环境变量,通常是选择yes的;这个根据自己情况选择,如果经常用conda环境开发,建议选择yes(Do you wish the installer to initialize Anaconda3 in your /home/linuxidc/.bashrc ? [yes|no])

开始安装页面

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

安装过程:

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

完成conda安装:

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

用另一个终端打开这个镜像创建的容器:

cudnn镜像源,高效开发工具,docker,Nvidia 镜像,cuda,cudnn,ubuntu

能看到能conda的初始环境了,说明conda安装成功啦。文章来源地址https://www.toymoban.com/news/detail-715249.html

到了这里,关于docker 获取Nvidia 镜像 | cuda |cudnn的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • WSL2使用Nvidia-Docker实现CUDA版本自由切换

    众所周知,深度学习的环境往往非常麻烦,经常不同的项目所依赖的 torch、tensorflow 包对 CUDA 的版本也有不同的要求,Linux 下进行 CUDA 的管理比较麻烦,是一个比较头疼的问题。 随着 WSL2 对物理机显卡的支持,Nvidia-Docker 也提供了对容器显卡的支持。我们可以通过拉取不同的

    2024年02月02日
    浏览(61)
  • Docker:使用Nvidia官方的pytorch、tensorflow、TensorRT镜像创建Container容器

    文章目录 前言 一、前期准备 二、具体步骤 1.启动容器 2.使用容器 补充 相信大家在学习新的知识前都遇到过开发环境安装不上,或者环境冲突和版本不匹配的情况,另外当我们想要安装多个版本的支持库时,在本地环境上直接安装往往会导致版本冲突的情况,如果我们使用

    2024年02月19日
    浏览(46)
  • 【go语言开发】go项目打包成Docker镜像,包括Dockerfile命令介绍、goctl工具生成

    本文主要介绍如何将go项目打包成镜像,首先介绍Dockerfile常用命令介绍,然后介绍使用工具goctl用于生成Dockerfile,还可以根据需求自定义指令内容,最后讲解如何将go-blog项目打包成镜像,以及如何运行等 参考文档: docker日常使用,编写dockerfile等 dockerfile编写 开发完项目之后

    2024年01月20日
    浏览(50)
  • WSL2 + docker + cuda 报错nvidia-container-cli: mount error: file creation failed:libnvidia-ml.so.1: fi

    WSL2 + Ubuntu 22.04 显卡驱动: 528.89 CUDA: 11.7 在创建docker时使用 --gpus all 会报错: 参考 issue1551 解决方式是 先不使用gpu创建容器 删除相关文件(注意根据报错删除文件,不要删多) 创建不包含这些文件的新的镜像 使用新的镜像创建容器 实现如下: 此时可以正常创建容器。

    2024年02月15日
    浏览(67)
  • 深度解析 Docker Registry:构建安全高效的私有镜像仓库

    🎈个人主页:程序员 小侯 🎐CSDN新晋作者 🎉欢迎 👍点赞✍评论⭐收藏 ✨收录专栏:大数据系列 ✨文章内容:Docker Registry 🤝希望作者的文章能对你有所帮助,有不足的地方请在评论区留言指正,大家一起学习交流!🤗 Docker Registry是Docker生态系统中关键的组件,负责存储

    2024年02月04日
    浏览(83)
  • Docker高效管理指南:一键清理、停止与删除所有容器和镜像

    在当今Java开发的日常工作中,Docker已经成为一项不可或缺的技术。它不仅提供了便捷的开发和部署方式,还为项目的可移植性和可伸缩性带来了新的可能性。我们熟悉了一些基本的Docker命令,如启动、关闭、删除容器以及删除镜像,以提高开发效率。然而,随着技术的不断发

    2024年02月02日
    浏览(41)
  • 【Docker】如何编写Dockerfile,深入理解 Dockerfile:构建精简且高效的容器镜像

    Docker 是一种轻量级的容器化技术,使得应用程序和它们的依赖可以被打包到一个容器中,方便在不同环境中运行。Dockerfile 是用于定义 Docker 镜像的文本文件,其中包含了一系列的指令,这些指令描述了镜像中应该包含哪些内容和如何配置。 在开始编写 Dockerfile 之前,确保你

    2024年01月24日
    浏览(54)
  • Docker(三)使用 Docker 镜像:从仓库获取镜像;管理本地主机上的镜像;介绍镜像实现的基本原理

    作者主页: 正函数的个人主页 文章收录专栏: Docker 欢迎大家点赞 👍 收藏 ⭐ 加关注哦! 在之前的介绍中,我们知道镜像是 Docker 的三大组件之一。 Docker 运行容器前需要本地存在对应的镜像,如果本地不存在该镜像,Docker 会从镜像仓库下载该镜像。 本章将介绍更多关于镜

    2024年01月20日
    浏览(43)
  • docker 获取镜像源中指定镜像的所有 tag

    参考网址:https://www.yuque.com/jiangshuangjun-upt1l/xve9g7/bn13gw 稍加改进的脚本:(软件源在代码中设置,镜像名是脚本后跟的参数) 使用方法: 安装 docker 安装脚本必要的依赖 jq 在脚本中配置要使用的软件源(注释/取消注释 repo_url ,只能从一个软件源查询) 运行脚本,脚本后加

    2024年02月11日
    浏览(37)
  • 构建Docker基础镜像(ubuntu20.04+python3.9.10+pytorch-gpu-cuda11.8)

    内容如下 访问官网下载页 https://www.python.org/downloads/release/python-3910/ 下拉选择 Gzipped 包 ps:创建镜像名为 ub2004py3910pytorchgpucuda118 标签为 latest 的镜像,从当前路径下的 DockerFile 文件打包

    2024年02月05日
    浏览(88)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包