基于 Docker 的深度学习环境:Windows 篇

这篇具有很好参考价值的文章主要介绍了基于 Docker 的深度学习环境:Windows 篇。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本篇文章,我们聊聊如何在 Windows 环境下使用 Docker 作为深度学习环境,以及快速运行 SDXL 1.0 正式版,可能是目前网上比较简单的 Docker、WSL2 配置教程啦。

写在前面

早些时候,写过一篇《基于 Docker 的深度学习环境:入门篇》,聊过了在 Linux 环境下,如何简单、正确的配置 GPU Docker 环境。

这几周总有不少好玩的开源模型和相关的应用组团出现,最近几篇文章发布后(尤其是 LLaMA2),总有 Windows 玩家因为环境原因提问。我觉得或许需要写一篇 Windows 下的 Docker 深度学习环境的配置教程,作为查缺补漏参考之用,应该能够减少不少因为环境所带来的问题。

我使用的操作系统版本为 Windows 11 家庭版,如果你使用的操作系统版本低于 Windows 11,可以考虑适当调整命令。

准备 Docker 虚拟化运行环境

想要完成 Docker 虚拟化环境的准备,一共分为三步:安装 Docker、配置 WSL2,开始玩。

安装 Docker 应用程序

我们可以从 Docker 官方网站,获取到 Docker 应用程序安装包的下载。

基于 Docker 的深度学习环境:Windows 篇,为了不折腾而去折腾的那些事,docker,深度学习,windows,人工智能,SDXL,stable diffusion

下载完毕之后,“一路 Next” 完成安装后,点击安装程序的“重启按钮”等待程序安装完毕。

基于 Docker 的深度学习环境:Windows 篇,为了不折腾而去折腾的那些事,docker,深度学习,windows,人工智能,SDXL,stable diffusion

等待电脑重启完毕,我们启动 Docker ,可能会遇到报错提示,提醒我们需要 “WSL” 新版本。(如果已经是 WSL2 环境,则可以跳过下面的小节,如果不确定,可以跟着走一遍)

接下来,我们来准备 WSL2 的运行环境。

准备 WSL2 的运行环境

网上的安装教程绝大多数都是陈旧的资料,都比较繁琐,其实配置 WSL2 的环境非常简单。

右键任务栏上的“Windows”徽标,选择“终端管理员”,打开 Powershell 终端界面,执行下面的命令。

wsl --install

命令执行后,可能会得到执行命令超时的提醒。没有关系,再次执行命令即可,等到能够看到终端展示支持的 Linux 操作系统的列表,表示 WSL 初始化正常,网络访问正常:

# wsl --install

适用于 Linux 的 Windows 子系统已安装。

操作超时

如果遇到超时,没关系的,再试试就好:

# wsl --install

适用于 Linux 的 Windows 子系统已安装。

以下是可安装的有效分发的列表。
请使用“wsl --install -d <分发>”安装。

NAME                                   FRIENDLY NAME
Ubuntu                                 Ubuntu
Debian                                 Debian GNU/Linux
kali-linux                             Kali Linux Rolling
Ubuntu-18.04                           Ubuntu 18.04 LTS
Ubuntu-20.04                           Ubuntu 20.04 LTS
Ubuntu-22.04                           Ubuntu 22.04 LTS
OracleLinux_7_9                        Oracle Linux 7.9
OracleLinux_8_7                        Oracle Linux 8.7
OracleLinux_9_1                        Oracle Linux 9.1
openSUSE-Leap-15.5                     openSUSE Leap 15.5
SUSE-Linux-Enterprise-Server-15-SP4    SUSE Linux Enterprise Server 15 SP4
SUSE-Linux-Enterprise-15-SP5           SUSE Linux Enterprise 15 SP5
openSUSE-Tumbleweed                    openSUSE Tumbleweed

当你看到上面的命令后,我们就可以执行第二条命令 wsl --update 来完成 wsl 主体程序的更新啦:

# wsl --update

正在安装: 适用于 Linux 的 Windows 子系统
已安装 适用于 Linux 的 Windows 子系统。

命令执行完毕后,我们能够看到类似上面的提醒。查看程序版本和内核,能够看到类似下面的信息:

# wsl --version

WSL 版本: 1.2.5.0
内核版本: 5.15.90.1
WSLg 版本: 1.0.51
MSRDC 版本: 1.2.3770
Direct3D 版本: 1.608.2-61064218
DXCore 版本: 10.0.25131.1002-220531-1700.rs-onecore-base2-hyp
Windows 版本: 10.0.22621.1778

接着,为了让 Docker 跑的更欢脱,以及能够正常调用 GPU,我们需要切换 WSL 默认版本为 WSL2

# wsl --set-default-version 2

有关与 WSL 2 关键区别的信息,请访问 https://aka.ms/wsl2

操作成功完成。

上面的操作都完成后,我们再次打开 Docker,就能够看到正常运行的界面啦。

基于 Docker 的深度学习环境:Windows 篇,为了不折腾而去折腾的那些事,docker,深度学习,windows,人工智能,SDXL,stable diffusion

在使用 Docker 调用容器镜像前,我们还需要验证下 Docker 是否能够和 GPU 正常通信。

验证 Docker 中 GPU 是否能够被正常调用

和上篇文章一样,可以先下载一个 Nvidia 官方的 PyTorch 镜像:

docker pull nvcr.io/nvidia/pytorch:23.07-py3

镜像比较大,需要耐心等待几分钟:

# docker pull nvcr.io/nvidia/pytorch:23.07-py3

23.07-py3: Pulling from nvidia/pytorch
...
...
Digest: sha256:c53e8702a4ccb3f55235226dab29ef5d931a2a6d4d003ab47ca2e7e670f7922b
Status: Downloaded newer image for nvcr.io/nvidia/pytorch:23.07-py3

当镜像下载完毕后,我们可以使用命令 docker run -it --gpus=all --rm nvcr.io/nvidia/pytorch:23.07-py3 nvidia-smi 来使用 Docker 启动一个容器,并在容器中调用 nvidia-smi 显卡管理程序,来查看显卡的状况:

# docker run -it --gpus=all --rm nvcr.io/nvidia/pytorch:23.07-py3 nvidia-smi

=============
== PyTorch ==
=============

NVIDIA Release 23.07 (build 63867923)
PyTorch Version 2.1.0a0+b5021ba

Container image Copyright (c) 2023, NVIDIA CORPORATION & AFFILIATES. All rights reserved.

Copyright (c) 2014-2023 Facebook Inc.
Copyright (c) 2011-2014 Idiap Research Institute (Ronan Collobert)
Copyright (c) 2012-2014 Deepmind Technologies    (Koray Kavukcuoglu)
Copyright (c) 2011-2012 NEC Laboratories America (Koray Kavukcuoglu)
Copyright (c) 2011-2013 NYU                      (Clement Farabet)
Copyright (c) 2006-2010 NEC Laboratories America (Ronan Collobert, Leon Bottou, Iain Melvin, Jason Weston)
Copyright (c) 2006      Idiap Research Institute (Samy Bengio)
Copyright (c) 2001-2004 Idiap Research Institute (Ronan Collobert, Samy Bengio, Johnny Mariethoz)
Copyright (c) 2015      Google Inc.
Copyright (c) 2015      Yangqing Jia
Copyright (c) 2013-2016 The Caffe contributors
All rights reserved.

Various files include modifications (c) NVIDIA CORPORATION & AFFILIATES.  All rights reserved.

This container image and its contents are governed by the NVIDIA Deep Learning Container License.
By pulling and using the container, you accept the terms and conditions of this license:
https://developer.nvidia.com/ngc/nvidia-deep-learning-container-license


NOTE: The SHMEM allocation limit is set to the default of 64MB.  This may be
   insufficient for PyTorch.  NVIDIA recommends the use of the following flags:
   docker run --gpus all --ipc=host --ulimit memlock=-1 --ulimit stack=67108864 ...

Sat Jul 29 01:44:04 2023
+---------------------------------------------------------------------------------------+
| NVIDIA-SMI 530.37                 Driver Version: 531.30       CUDA Version: 12.1     |
|-----------------------------------------+----------------------+----------------------+
| GPU  Name                  Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf            Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|                                         |                      |               MIG M. |
|=========================================+======================+======================|
|   0  NVIDIA GeForce RTX 4090         On | 00000000:01:00.0  On |                  Off |
| 32%   38C    P8               23W / 450W|    571MiB / 24564MiB |      4%      Default |
|                                         |                      |                  N/A |
+-----------------------------------------+----------------------+----------------------+

+---------------------------------------------------------------------------------------+
| Processes:                                                                            |
|  GPU   GI   CI        PID   Type   Process name                            GPU Memory |
|        ID   ID                                                             Usage      |
|=======================================================================================|
|  No running processes found                                                           |
+---------------------------------------------------------------------------------------+

通过上面的日志,可以看到显卡状态正常,同时能够读取到所有我们需要的信息。

写到这里,Windows 环境下的 Docker 深度学习环境就聊完了,如果你想了解更多,可以翻阅《基于 Docker 的深度学习环境:入门篇》文章中的“AI 相关的 Docker 镜像,及实际使用”和“其他”小节,来进行查缺补漏。

使用 Docker 在容器中调用 GPU

当然,不实实在在来一场实践,不是我的写作风格。

所以,在环境就绪之后,我们来使用 Docker 来尝试运行上一篇文章《使用 Docker 快速上手 Stability AI 的 SDXL 1.0 正式版》中提到的 Stable Diffusion XL 1.0 的镜像,让它能够在 Windows 环境下正常使用。

这里,我们跳过上一篇的准备工作和镜像构建,直接使用现成的运行环境来折腾 SDXL 1.0。当然,如果你感兴趣,可以翻阅上篇文章全文,来了解背后的技术细节,这里就不展开啦。

下载模型文件和容器环境

我们可以从网盘地址1和网盘地址2,分别下载官方的模型文件和整理好的 Docker 容器环境(环境只下载 sdxl-runtime.tar 即可)。

如果下载出现问题,可以前往 soulteary/docker-sdxl 项目 issue 留言反馈或参考上一篇文章,从 HuggingFace 下载模型,和进行容器镜像的手动构建。

加载模型并准备工作目录

以 C 盘为例,我们在盘根创建一个名为 docker-sdxl 的目录,然后将 sdxl-runtime.tar 和下载模型目录中的 stabilityai 放到这个目录中。

然后,切换工作目录到 C:/docker-sdxl

cd C:/docker-sdxl/

接着,执行命令,载入容器镜像文件 docker load -i .\docker-sdxl\sdxl-runtime.tar

docker load -i .\docker-sdxl\sdxl-runtime.tar
68ad565f4346: Loading layer [==================================================>]   2.56kB/2.56kB
b279d196469f: Loading layer [==================================================>]  384.6MB/384.6MB
08135af11e7a: Loading layer [==================================================>]  1.536kB/1.536kB
6b36eae25335: Loading layer [==================================================>]  6.144kB/6.144kB
72a8d0a30e5a: Loading layer [==================================================>]  18.94kB/18.94kB
Loaded image: soulteary/sdxl:runtime

镜像加载完毕之后,我们就可以运行 Docker 容器,来玩 SDXL 啦:

 docker run --gpus all --ipc=host --ulimit memlock=-1 --ulimit stack=67108864 --rm -it -v C:/docker-sdxl/stabilityai/:/app/stabilityai -p 7860:7860 soulteary/sdxl:runtime

可以看到,命令和前一篇适用于 Linux 环境的文章几乎一致,除了在 Linux 环境下,我们可以通过 pwd 来表示当前目录,而 Windows 环境中,最佳实践是通过完整目录(C:/docker-sdxl/stabilityai/)来表示。

在命令执行完毕后,我们就进入了交互式的终端,接下来我们可以执行和上一篇文章一样的三个程序:basic.pyrefiner.pyrefiner-low-vram.py

# 执行基础模型程序
python basic.py
# 执行全家桶模型程序
python refiner.py
# 执行使用显存稍低的程序
python refiner-low-vram.py

资源要求和消耗和上一篇并没有什么不同,唯一的差别可能是 WSL2 的数据传输性能相比 Linux 环境要低不少,模型加载的时间会长很多,需要耐心等待。

当模型完全加载完毕,我们能够看到下面的日志:

python basic.py
Loading pipeline components...: 100%|███████████████████████████████████████████████████████████████████████████| 7/7 [00:03<00:00,  1.95it/s]
Running on local URL:  http://0.0.0.0:7860/


To create a public link, set `share=True` in `launch()`.

接下来,访问 http://localhost:7860 或者 http://你的IP:7860 来访问 SDXL 1.0 的 Web 界面啦。

基于 Docker 的深度学习环境:Windows 篇,为了不折腾而去折腾的那些事,docker,深度学习,windows,人工智能,SDXL,stable diffusion

虽然上面日志中加载模型的性能比较差,但实际推理的性能非常好,能够达到 11~13it/s,和 Linux 没有什么差异。(都在显存里了,没有数据交换)

因为 Windows 默认会打开防火墙,限制程序对外暴露端口,避免一些安全问题。在使用的时候,如果你的 Windows 主机和你要访问这个服务的设备是两台设备,你需要关闭或者在防火墙内放行这个应用,有类似情况的小伙伴可以注意下,调整下系统防火墙配置。

其他

我之前已经写过不少 AI 相关的内容,尤其是偏实践类的文章,你可以访问下面几个链接来获取能够快速上手的教程。比如,“Python” 主题的内容、“Llama ” 主题相关的内容、“Stable Diffusion ” 主题相关的内容。

或者,也可以访问我在 GitHub 上公开的项目,获取相关的代码或者 Docker 镜像,自己亲手试验下 “人工智能” 的 iPhone Moment 时代的各种模型。

最后

好了,这篇文章就先写到这里啦,😄

– EOF


我们有一个小小的折腾群,里面聚集了一些喜欢折腾、彼此坦诚相待的小伙伴。

我们在里面会一起聊聊软硬件、HomeLab、编程上的一些问题,也会在群里不定期的分享一些技术资料。

喜欢折腾的小伙伴,欢迎阅读下面的内容,扫码添加好友。

关于“交友”的一些建议和看法

添加好友时,请备注实名和公司或学校、注明来源和目的,珍惜彼此的时间 😄

苏洋:关于折腾群入群的那些事


本文使用「署名 4.0 国际 (CC BY 4.0)」许可协议,欢迎转载、或重新修改使用,但需要注明来源。 署名 4.0 国际 (CC BY 4.0)

本文作者: 苏洋

创建时间: 2023年07月29日
统计字数: 8488字
阅读时间: 17分钟阅读
本文链接: https://soulteary.com/2023/07/29/docker-based-deep-learning-environment-under-windows.html文章来源地址https://www.toymoban.com/news/detail-616949.html

到了这里,关于基于 Docker 的深度学习环境:Windows 篇的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【rust/入门】windows安装rust gnu环境(折腾)

    首先说明,我是rust入门选手,之前都是在wsl写rust,突然想在windows下装下rust。 windows版本:windows11 22H2 原文 换源 看到教程我陷入了沉默, (官方推荐) 打开 Microsoft C++ Build Tools 我开始不解,这是让我安装vs studio? 我装个rust你让我装几个G的环境? 再见,告辞!我是菜鸡! 等等

    2024年02月13日
    浏览(47)
  • 【深度学习】windows10环境配置详细教程

    Anaconda3常用命令 【官方地址】 页面拉倒底部,下载最新版本 挂VPN下载速度才能起来 安装过程: next–同意协议–所有用户–选择安装位置–确认–安装完成 安装完成: CMD打开命令终执行命令,表示正在使用conda基本版的环境。 可能会出现 “‘conda’ 不是内部或外部命令,也不是

    2023年04月09日
    浏览(57)
  • 【Docker】深度学习环境

    $ docker images -v /home/cenjw/dataset/:/home/data 挂载宿主机数据目录:容器目录 $ docker ps -a

    2024年02月07日
    浏览(36)
  • Windows配置深度学习环境——torch+CUDA

    这里基于读者已经有使用Python的相关经验,就不介绍Python的安装过程。 win10+mx350+Python3.7.4+CUDA11.4.0+cudnn11.4 torch 1.11.0+cu113 torchaudio 0.11.0 torchvision 0.12.0+cu113 一般来说在命令行界面输入python就可以了解python版本。 也可以使用如下代码查询python版本。 以下是torch与Python版本的对应关

    2024年01月25日
    浏览(53)
  • Windows下PyTorch深度学习环境配置(GPU)

    (路径最好全英文) (下载好后,可以创建其他虚拟环境,因为是自己学习,所以先不放步骤,有需要者可以参考B站up我是土堆的视频) 1.确定显卡型号 (如图右上角,我是1050ti) 确定显卡算力 6.1 (更多CUDA和GPU间的算力关系可参考https://zhuanlan.zhihu.com/p/544337083?utm_id=0) 确

    2024年02月16日
    浏览(57)
  • 使用Docker配置深度学习的运行环境

    在linux系统中进行操作,最重要的就是意识到用户权限,这在通过不同方式安装不同应用中非常重要,不然你就会导致一些用户无法使用。 除了用户权限的问题还有就是程序的安装位置,不同的安装位置的程序的启动方式是不同的,安装在 /usr/local/bin 目录下的程序,如果启动

    2024年02月04日
    浏览(42)
  • windows11 安装cuda和cudnn深度学习开发环境

    首先先要确认自己的显卡最高能支持到cuda的版本,一般是不限制版本号的。 然后在官网地址下载: cuDNN的官网下载地址:cuDNN Archive | NVIDIA Developer CUDA 的下载地址:CUDA Toolkit Archive | NVIDIA Developer 有一点需要注意的是,需要查看cuda支持的cudnn版本:  找与自己的cuda 版本对于的

    2024年02月16日
    浏览(55)
  • 深度学习环境配置指南!(Windows、Mac、Ubuntu全讲解)

    入门深度学习,很多人经历了从入门到放弃的心酸历程,且千军万马倒在了入门第一道关卡:环境配置问题。俗话说,环境配不对,学习两行泪。 如果你正在面临配置环境的痛苦,不管你是Windows用户、Ubuntu用户还是苹果死忠粉,这篇文章都是为你量身定制的。接下来就依次

    2024年01月18日
    浏览(38)
  • linux docker部署深度学习环境(docker还是conda)

    在深度学习中,避免不了在远程服务器上进行模型的训练,如果直接在服务器裸机的基础环境跑显然是不可取的,此时搭建用于模型训练的docker环境显得尤为重要。 在深度学习中,避免不了在远程服务器上进行模型的训练,如果直接在服务器裸机的基础环境跑显然是不可取的

    2024年02月21日
    浏览(52)
  • Windows深度学习环境的配置(从不会到学会!最全版!)

    目录: 前言 下载 安装 anaconda 下载 安装 pycharm  下载 更新NVIDIA 驱动  下载安装 安装cuda 下载并移动cudnn    安装适配的pytorch 验证pytorch 在jupyter notebook中打开配置好的虚拟环境 在Pycharm解释器中配置虚拟环境 前言 使用的软硬件配置: Windows10 NVIDIA GeForce RTX 2060 Ti Laptop GPU a

    2024年02月13日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包