【边缘端环境配置】英伟达Jetson系列安装pytorch/tensorflow/ml/tensorrt环境(docker一键拉取)

这篇具有很好参考价值的文章主要介绍了【边缘端环境配置】英伟达Jetson系列安装pytorch/tensorflow/ml/tensorrt环境(docker一键拉取)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Jetson系列板卡是算法边缘端部署无法避开的一道坎,作为英伟达旗下产品,可以使用tensorrt加速,因此用户较多,生态较好;但是由于是ARM架构,因此无法使用x86部署方式,用过的都有一堆血泪史可以诉说,以下是英伟达官方介绍:
NVIDIA® Jetson™ 是适用于自主机器和其他嵌入式应用的先进平台。该平台包括 Jetson模组(外形小巧的高性能计算机)、用于加速软件的 NVIDIA JetPack™ SDK,以及包含传感器、SDK、服务和产品的生态系统,从而加快开发速度。Jetson 与其他 NVIDIA 平台上使用的相同 AI软件和云原生工作流兼容,并提供客户构建软件定义的自主机器所需的节能性能。

【边缘端环境配置】英伟达Jetson系列安装pytorch/tensorflow/ml/tensorrt环境(docker一键拉取)

0.JetPack

Jetson Development Pack (JetPack) 是一个按需提供的一体化软件包,捆绑并安装了适用于 NVIDIA Jetson 嵌入式平台的所有开发用软件工具,JetPack 包括适用于以下功能的工具:

深度学习:TensorRT、cuDNN、NVIDIA DIGITS™ 工作流程
计算机视觉:NVIDIA VisionWorks、OpenCV
GPU 计算:NVIDIA CUDA、CUDA 库
多媒体:ISP 支持、摄像头图像、视频 CODEC

同时,它还包括 ROS 兼容性、OpenGL、高级开发者工具等等。

在选择JetPack的时候需要注意其版本号,JetPack 4.x版本使用的是ubuntu18.04+cuda10.2+tensorrt8.2及以下版本,而JetPack 5.x版本使用的是ubuntu20.04+cuda11.x+tensorrt8.4及以上版本;秉持着选旧不选新的原则,推荐选择JetPack 4.6.x版本,如果你想使用yolov7以上的tensorrt加速,建议选择JetPack 5.0.2版本,因为JetPack 4.x版本最高支持的tensorrt只有8.2.1,而将onnx转engine的时候会报错,这个bug在8.4.1的时候修复了(当然也有可能只是部分人的问题)

JetPack 5.0.2 是生产级质量版本,可取代仅用于开发的 JetPack 5.0/JetPack 5.0.1开发者预览版本。JetPack 5.0.2 包括搭载 Linux 内核 5.10 的 Jetson Linux 35.1 BSP、基于Ubuntu 20.04 的根文件系统、基于 UEFI 的引导加载程序以及作为可信执行环境的 OP-TEE。JetPack 5.0.2 包括Jetson 上的新版计算栈,配备了 CUDA 11.4、TensorRT 8.4.1 和 cuDNN 8.4.1。

1.安装输入法

工欲善其事必先利其器,而输入法是我们通向未知世界的大门钥匙,在jetson安装谷歌拼音相对比较简单,可以参考这篇教程:
Jetson Nano安装中文输入法

2.安装docker和nvidia-docker

本文推荐使用docker来配置我们的环境,第一个是因为他安装相对方便,第二个是因为安装失败也不会影响我们宿主机的环境;一般烧录完系统后docker和nvidia-docker是系统自带的,但是有时候也会出现一些意外,这时就需要重新安装,安装教程参看这篇:
NVIDIA Jetson板子上安装nvidia docker

3.拉取l4t-pytorch镜像

先去英伟达官方提供的docker拉取地址,找到自己想要的docker包
NVIDIA L4T PyTorch官方地址
【边缘端环境配置】英伟达Jetson系列安装pytorch/tensorflow/ml/tensorrt环境(docker一键拉取)

通过Copy Image Path可以将docker仓库复制到剪切栏,粘贴到终端即可:

sudo docker pull nvcr.io/nvidia/l4t-pytorch:r35.1.0-pth1.13-py3
sudo docker run -it --gpus all --restart always --name torch -p 6010:6010 -w /workspace -v /home/xxx/:/workspace  nvcr.io/nvidia/l4t-pytorch:r35.1.0-pth1.13-py3 /bin/bash

进入容器后,可以使用pip3 list查看已经安装了哪些包,这个仓库里是不带tensorrt的,如果需要额外安装tensorrt的话,需要从sdk manager中下载对应jetpack的tensorrt安装包进行映射安装。

4.拉取l4t-tensorflow镜像

拉取tensorflow的方式和pytorch一样,直接进入拉取即可
NVIDIA L4T Tensorflow官方地址

5.拉取l4t-ml镜像

l4t-ml集成了pytorch、Tensorflow、pandas等多个框架,以5.0.2版本为例,有如下包:

  • TensorFlow 1.15.5
  • PyTorch v1.12.0
  • torchvision v0.13.0
  • torchaudio v0.12.0
  • onnx 1.12.0
  • CuPy 10.2.0
  • numpy 1.22.4
  • numba 0.56.0
  • PyCUDA 2022.1
  • OpenCV 4.5.0 (with CUDA)
  • pandas 1.4.3
  • scipy 1.9.0
  • scikit-learn 1.1.1
  • JupyterLab 3.4.4

因此,l4t-ml镜像中还包含了cuda加速的opencv,建议直接拉这个镜像即可:
NVIDIA L4T ML官方地址

6.拉取tensorrt镜像

tensorrt镜像的拉取方式和上述一致,但是里面只有cuda+cudnn+tensorrt基础环境,如果需要配置pytorch或者tensorflow需要自行安装
【边缘端环境配置】英伟达Jetson系列安装pytorch/tensorflow/ml/tensorrt环境(docker一键拉取)
NVIDIA L4T TensorRT官方地址

  • pytorch的安装可以直接使用对应的编译好的whl安装包
    PyTorch for Jetson whl下载地址
  • torchvision则需要去github下载,然后本地编译安装
    torchvision github地址
    TensorFlow的安装方式
    TensorFlow地址

7.镜像换源

通过修改/etc/apt/sources.list,可以将容器内的apt源换为国内源(宿主机也一样)

deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic main restricted universe multiverse
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-updates main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-updates main restricted universe multiverse
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-backports main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-backports main restricted universe multiverse
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-security main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-security main restricted universe multiverse
deb http://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ xenial main multiverse restricted universe # for opencv
# deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-proposed main restricted universe multiverse
# deb-src https://mirrors.tuna.tsinghua.edu.cn/ubuntu-ports/ bionic-proposed main restricted universe multiverse

8.其他

(1)设置开机风扇自启

执行以下命令可以手动开启风扇,“150” 表示 pwm 速度,但是此命令重启失效,因此需设置开机自启动此命令,添加至 /etc/rc.local脚本中

sudo sh -c "echo 150 > /sys/devices/pwm-fan/target_pwm

(2)安装miniconda

进入miniconda官网,下载arm架构版本的miniconda
官网链接
【边缘端环境配置】英伟达Jetson系列安装pytorch/tensorflow/ml/tensorrt环境(docker一键拉取)

(3)下载vscode

vscode作为轻量级代码工具,怎能少的了它?
vscode下载地址
【边缘端环境配置】英伟达Jetson系列安装pytorch/tensorflow/ml/tensorrt环境(docker一键拉取)

参考文章

jetson TX2安装TensorRT文章来源地址https://www.toymoban.com/news/detail-421807.html

到了这里,关于【边缘端环境配置】英伟达Jetson系列安装pytorch/tensorflow/ml/tensorrt环境(docker一键拉取)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Windows安装GPU环境CUDA、深度学习框架Tensorflow和Pytorch

    Windows安装GPU环境CUDA、深度学习框架Tensorflow和Pytorch 首先需要安装GPU环境,包括cuda和cudnn。 深度学习本质上就是训练深度卷积神经网络。 cuda:显卡能够完成并行计算任务,所有的操作是比较底层的、复杂的。 cudnn:在cuda之上有一个专门用于深度神经网络的SDK库来加速完成相

    2023年04月26日
    浏览(45)
  • 【在英伟达nvidia的jetson-orin-nx和PC电脑ubuntu20.04上-装配ESP32开发调试环境-基础测试】

    最近在使用一直在调试ESP32,作为新手,也有很多不懂的地方,一点点慢慢学,开始是装的win环境,后来又尝试了jetson-orin-nx和ubuntu上,在Linux 下开发都习惯使用命令行,但是在Windows下习惯使用软件点,而调试esp32的话,还是建议使用命令行形式。 当然说得有点远了,本次主要

    2024年02月08日
    浏览(27)
  • 深度学习框架安装与配置指南:PyTorch和TensorFlow详细教程

    如何安装和配置深度学习框架PyTorch和TensorFlow 为什么选择PyTorch和TensorFlow? PyTorch TensorFlow 安装PyTorch 步骤1:安装Python 步骤2:使用pip安装PyTorch 安装TensorFlow 步骤1:安装Python 步骤2:使用pip安装TensorFlow 验证安装 配置深度学习环境 步骤1:选择合适的IDE 步骤2:安装必要的库 步

    2024年02月10日
    浏览(31)
  • Jetson nano B01学习笔记 -- 系统环境配置以及ROS安装

    Jetson Nano是一款体积小巧、功能强大的人工智能嵌入式开发板,于2019年3月由英伟达推出。它预装Ubuntu 18.04LTS系统,搭载英伟达研发的128核Maxwell GPU,可以快速将AI技术落地并应用于各种智能设备。相比于Jetson之前的几款产品(Jetson TK1、Jetson TX1、Jetson TX2、Jetson Xavier),Jetson

    2023年04月24日
    浏览(34)
  • 在Anaconda的虚拟环境上安装cuda、pytorch、opencv以及tensorflow 以及相关报错。

    首先查看自己电脑能支持的cuda版本,查看方法,命令行输入:nvidia-smi 这里我的cuda最高支持11.1的版本,下载的时候找11.1及以下的都可以 然后是在命令行进入提前创建好的虚拟环境(我的虚拟环境名字叫DLGPU,这里要换成自己的) 然后去pytorch的官网里可以找到下载cuda和对应

    2024年02月05日
    浏览(84)
  • 全网最新最全的基于Tensorflow和PyTorch深度学习环境安装教程: Tensorflow 2.10.1 加 CUDA 11.8 加 CUDNN8.8.1加PyTorch2.0.0

    本文编写日期是:2023年4月. Python开发环境是Anaconda 3.10版本,具体Anaconda的安装这里就不赘述了,基础来的。建议先完整看完本文再试,特别是最后安装过程经验分享,可以抑制安装过程中一些奇怪的念头,减少走弯路。 目录 1. NVidia驱动安装  2. 安装CUDA Toolkit 3. 安装Tensorfl

    2024年02月08日
    浏览(39)
  • 【window环境】Python安装与深度学习环境(tensorflow)配置保姆教程

    此贴主要记录window环境下,python安装、配置python环境及tensorflow(GPU、CPU)的配置。初学者记录贴,如内容有误,还请各位大佬指出来。 (1)访问Anaconda官网( https://docs.conda.io/en/latest/miniconda.html ),点击所需版本的下载链接。 (例如: https://repo.anaconda.com/miniconda/Miniconda3-

    2024年02月02日
    浏览(47)
  • 深度学习环境配置系列文章(二):Anaconda配置Python和PyTorch

    第一章 专业名称和配置方案介绍 第二章 Anaconda配置Python和PyTorch 第三章 配置VS Code和Jupyter的Python环境 第四章 配置Windows11和Linux双系统 第五章 配置Docker深度学习开发环境 Anaconda有着强大的包管理和环境管理的功能,使用后可以方便地使用和切换不同版本的Python和PyTorch等科学

    2024年01月23日
    浏览(45)
  • windows10系统PYthon深度学习环境安装(Anaconda3、PYthon3.10、CUDA11.6、CUDDN10、pytorch、tensorflow,Pycharm)

    一、 總體说明 1、說明:總體採用https://blog.csdn.net/zhizhuxy999/article/details/90442600方法,部分步驟由於版本變化,進行了調整。 2、基本概念 编程语言/编译器:Python。Python的特点是“用最少的代码干最多的事”。Python 2即在2020年停止更新,所以现在学习Python 3是最好的选择。 P

    2023年04月18日
    浏览(51)
  • 玩转NVIDIA Jetson (25)--- jetson 安装pytorch和torchvision

    在jetson上安装pytorch能够快速的帮助PC用户在熟悉的环境下进行开发,但是这个过程里边有一些坑,我建议大家参照官方给出的安装指导来进行安装,包括pytorch和包含各种网络的torchvision。官方安装如下,这个topic里会持续更新各个版本的pytorch。 PyTorch for Jetson - version 1.11 now

    2024年02月15日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包