Xilinx Ubuntu环境下docker&Vitis AI 3.0基于GPU的环境安装

这篇具有很好参考价值的文章主要介绍了Xilinx Ubuntu环境下docker&Vitis AI 3.0基于GPU的环境安装。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Xilinx Ubuntu环境下docker&Vitis AI 3.0基于GPU的环境安装

ubuntu安装vitis,Xilinx,docker,人工智能,容器,linux,fpga开发

图1 Visiti AI用户开发环境需求

Xilinx官网Vitis AI入门指南
Xilinx Github Vitis AI资料
首先参考官网资料中的入门部分进行环境设置,显卡驱动如何安装这里就不作介绍了。
1.克隆 Vitis AI 存储库以获取示例、参考代码和脚本。

git clone https://github.com/Xilinx/Vitis-AI 
cd Vitis-AI


2.安装 Docker。
    这里不建议参考官方链接给出的官方Docker文档,我用其中的Ubuntu版本的apt-get install指令和用.deb安装包的方式都无法完成相关依赖库的安装,具体过程可以参考下面。

#第一步,先卸载旧版,如果没有的话,就不用执行了,直接第二步。
apt-get remove docker docker-engine docker.io containerd runc

#第二步,更新软件源,安装依赖库
apt update
apt-get install ca-certificates curl gnupg lsb-release

#第三步,安装证书
curl -fsSL http://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add -

#第四步,写入软件源信息
sudo add-apt-repository "deb [arch=amd64] http://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"

#第五步,安装
sudo apt-get install docker-ce docker-ce-cli containerd.io

#第六步,启动
systemctl start docker

#第七步,安装工具
apt-get -y install apt-transport-https ca-certificates curl software-properties-common

#第八步,重启docker
service docker restart

#第九步,测试
sudo docker run hello-world 

    若测试成功,则结果如下图所示。

ubuntu安装vitis,Xilinx,docker,人工智能,容器,linux,fpga开发

图2 测试成功

#第十步,查看docker版本
sudo docker version

#第十一步,查看镜像,可以看到刚才创建的镜像
sudo docker images

ubuntu安装vitis,Xilinx,docker,人工智能,容器,linux,fpga开发

图3 查看生成hello-world的镜像


3.下一步添加 Linux 用户包含在 Docker 组中。

#1.Create the docker group.
sudo groupadd docker
#2.Add your user to the docker group.
sudo usermod -aG docker $USER
#3.更新docker
newgrp docker

#4.Verify that you can run docker commands without sudo.
docker run hello-world

    如果不加sudo执行成功上述代码的最后一句,说明成功。



4.构建工作容器。
    官方意思是我们可以使用预构建的容器,也可以从脚本中构建容器。预构建的容器不支持支持CUDA的GPU,因此开发人员必须从脚本构建容器。
    定位到Vitis AI安装路径中的docker子目录:

#Vitis-AI install path>表示你安装Vitis AI的路径
cd <Vitis-AI install path>/Vitis-AI/docker

    按如下方式执行脚本:./docker_build.sh -t <DOCKER_TYPE> -f <FRAMEWORK>

    支持的生成选项包括:
ubuntu安装vitis,Xilinx,docker,人工智能,容器,linux,fpga开发

图4 支持生成的指令合集
    例如,开发人员可以使用以下命令来构建支持Vitis AI Optimizer的Pytorch CUDA GPU docker,本文也是使用这条指令构建了一个容器。
cd <Vitis-AI install path>/Vitis AI/docker
./docker_build.sh-t gpu-f opt_pytarch

    注意!!!opt_pytorch这个容器只能够实现量化的操作,不能够实现编译!如果用这个容器编译量化后的Xmodel,会报错"vai_c_xir:Command not found"。

    想要编译pytorch框架下的容器,我们应该再创建一个pytorch的gpu版本的容器,指令如下

cd <Vitis-AI install path>/Vitis AI/docker
./docker_build.sh-t gpu-f pytarch

    如果以上两个命令报错failed,可以多尝试几次,因为脚本中的下载源为Ubuntu自己的源,不是国内的源。有能力可以自己修改脚本中关于源的设置提高下载速度,这里就不细讲了。



5.为了在docker中使用GPU,需要安装安装nvidia-container-toolkit。(官方参考文档一开始就会要求安装这个,但是有可能报错)

#第一步,添加nvidia-docker的源
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | \
sudo apt-key add -
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | \
sudo tee /etc/apt/sources.list.d/nvidia-docker.list
sudo apt-get update

#第二步,安装nvidia-container-toolkit
sudo apt-get install -y nvidia-container-toolkit

#第三步,重启docker
sudo systemctl restart docker

    如果Docker已启用支持CUDA的GPU,请执行以下命令进行最终测试,以确保GPU可见,最终生成如下图所示类似的界面:

docker run --gpus all nvidia/cuda:11.3.1-cudnn8-runtime-ubuntu20.04 nvidia-smi

ubuntu安装vitis,Xilinx,docker,人工智能,容器,linux,fpga开发

图5 生成类似的界面


6.现在可以使用以下命令启动Vitis AI的Docker:

#<Vitis-AI install path>表示你安装Vitis-AI的路径
cd <Vitis-AI install path>/Vitis-AI
#选择你之前安装的框架来执行下述命令
#如本文案例./docker_run.sh xilinx/vitis-ai-opt-pytorch-gpu:latest
./docker_run.sh xilinx/vitis-ai-<pytorch|opt-pytorch|tensorflow2|opt-tensorflow2|tensorflow>-<cpu|gpu|rocm>:latest

    生成如下界面,一堆协议许可,最后填y。

ubuntu安装vitis,Xilinx,docker,人工智能,容器,linux,fpga开发

图6 同意许可

    然后就会生成如下的界面了^ _ ^

ubuntu安装vitis,Xilinx,docker,人工智能,容器,linux,fpga开发文章来源地址https://www.toymoban.com/news/detail-594502.html

图7 Vitis AI安装完成

到了这里,关于Xilinx Ubuntu环境下docker&Vitis AI 3.0基于GPU的环境安装的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ubuntu环境创建anaconda虚拟环境安装pytorch-gpu版本

    参考文章 文章1 文章2 unbuntu:20.04 cuda:12.0 cuda:11.3 cudnn:8.2.0 python:3.8 pytorch:1.10.0 版本连接查找 https://tensorflow.google.cn/install/source#gpu 官网链接:https://developer.nvidia.com/cuda-toolkit-archive ubuntu 环境 cuda 版本最高匹配 12.0 ,我下载 11.3.0 安装命令 选continue 填accept 电脑里有驱动,按空格取

    2024年02月06日
    浏览(49)
  • 基于CentOS 7.6安装及配置APISIX 3.0环境

    最近一直在研究微服务相关内容,通过对比各大API网关,发现新起之秀 APISIX无论从开源程度上来讲还是功能上,都拥有很大的优势。 经历了几天折磨一样的学习,目前在本地环境中配置成功了一套,以供自己留存吧,实在是网上的很多文章要么太老了,要么就是乱写一通。

    2024年02月03日
    浏览(38)
  • 从头安装与使用一个docker GPU环境

    导入源仓库的GPG key 将 Docker APT 软件源添加到你的系统 安装命令如下: 验证安装过程,查看安装的docker 版本,如果返回docker 版本,证明安装成功 在 Docker 中寻找专为深度学习和 GPU 计算准备的基础镜像,通常您会使用 Docker Hub,这是 Docker 的官方镜像仓库,包含了大量的社区

    2024年02月02日
    浏览(35)
  • GPU机器docker环境离线安装

    秋风阁(https://focus-wind.com/) docker 二进制包下载位置 在无法联网的环境中安装软件包,我们无法依赖于现成的包管理工具,只能通过一个一个的下载包的方式来进行软件的下载安装,但这样操作难免会遇到依赖问题,复杂的依赖问题会严重的影响我们环境的下载。所以可以通过

    2024年02月16日
    浏览(32)
  • tensorflow 1.15 gpu docker环境搭建;Nvidia Docker容器基于TensorFlow1.15测试GPU;——全流程应用指南

    TensorFlow 在新款 NVIDIA Pascal GPU 上的运行速度可提升高达 50%,并且能够顺利跨 GPU 进行扩展。 如今,训练模型的时间可以从几天缩短到几小时 TensorFlow 使用优化的 C++ 和 NVIDIA® CUDA® 工具包编写,使模型能够在训练和推理时在 GPU 上运行,从而大幅提速 TensorFlow GPU 支持需要多个

    2024年02月03日
    浏览(55)
  • 安装ubuntu22.04系统,GPU驱动,cuda,cudnn,python环境,pycharm

    需要准备一个u盘,需要 格式化 ,且内存不小于8g 1 下载ubuntu镜像 下载链接: https://cn.ubuntu.com/download/desktop 2下载rufus Rufus - 轻松创建 USB 启动盘 Rufus: Create bootable USB drives the easy way https://rufus.ie/zh/  准备好这两个之后 ​ ​ 配置好之后,点开始,然后基本下一步下一步就可以

    2024年01月24日
    浏览(41)
  • 基于全新电脑环境安装pytorch的GPU版本

    距离第一次安装深度学习的GPU环境已经过去了4年多(当时TensorFlow特别麻烦),现在发现安装pytorch的GPU版本还是很简单方便的,流程记录如下。 Free Download | Anaconda 直接下载最新版本到电脑里,并安装。 win+R 然后输入cmd调出命令窗,输入 nvidia-smi 通过搜索找到”设备管理器”

    2024年02月10日
    浏览(26)
  • 【FPGA】xilinx的开发软件vitis使用简介

           Xilinx的开发软件Vitis是一款全新的开发工具套件,它支持多种编程语言如C++、OpenCL、Python等,以及多种硬件平台,包括Xilinx的FPGA和ACAP(Adaptive Compute Acceleration Platform)。这使得它具有极高的灵活性,可以应对不同类型的开发需求,包括数据中心、云端和边缘智能应用

    2024年02月04日
    浏览(38)
  • K8S部署后的使用:dashboard启动、使用+docker镜像拉取、容器部署(ubuntu环境+gpu3080+3主机+部署深度学习模型)

    0、k8s安装、docker安装 参考:前两步Ubuntu云原生环境安装,docker+k8s+kubeedge(亲测好用)_爱吃关东煮的博客-CSDN博客_ubantu部署kubeedge  配置节点gpu: K8S调用GPU资源配置指南_思影影思的博客-CSDN博客_k8s 使用gpu 1、重置和清除旧工程:每个节点主机都要运行 2、部署新的k8s项目:

    2023年04月20日
    浏览(48)
  • 基于Miniconda3安装jupyter notebook+虚拟环境安装tensorflow(cpu&gpu版本)

    本文在安装过程中参考了很多c站的其他教程,本文把安装过程中遇到的问题和安装过程一一记录,希望能有所贡献。 本文是基于miniconda已经安装完成且环境变量也设置好的前提。 目录 一、Miniconda创建虚拟环境 (以下的二和三部分任选其一安装即可) 二、安装tensorflow cpu版

    2024年02月07日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包