Azure IoT&NVIDIA Jetson开发简介

这篇具有很好参考价值的文章主要介绍了Azure IoT&NVIDIA Jetson开发简介。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

8月13日,Microsoft Azure联合NVIDIA企业开发者社区,举办了“Microsoft Azure IoT&NVIDIA Jetson开发者”活动。
本人有幸参加,在这里对讲解的部分理论基础进行了记录(没有代码相关哦)。٩(๑>◡<๑)۶

Azure IoT

IoT

物联网(Internet of Things,IoT)是通过信息传感设备,按照约定的协议,把任何物品与互联网连接起来进行信息交换和通信,以实现智能化识别、定位、跟踪、监控和管理的过程与技术。
如下图所示(来自本活动PPT),IoT跨过了早期市场与主流市场间的鸿沟,相信随着关键技术的发展,未来IoT将在各界大放异彩。

Azure IoT&NVIDIA Jetson开发简介

Azure

据官网介绍,Microsoft Azure 是用于通过全球数据中心网络生成、部署和管理智能应用程序的云服务。Azure 云平台汇集了超过200种的产品和云服务,利用所选的工具和框架,可以在多个云中、本地以及在边缘生成、运行和管理应用程序,以实现对方案实现的支持。
Azure IoT&NVIDIA Jetson开发简介

Azure资源申请

  • 学生或者教师,可以使用 edu 邮箱申请免费的 Azure 资源。

  • 开发人员或创业者,可以通过本链接申请免费的 Azure 资源。

演示实例:IoT Plug & Play

构建物联网需要大量设备连接到云平台,但设备间由于生产厂家或功能等的不同,存在种种差异,需要深入了解设备细节才能实现设备的接入与管理,这些使得设备与IoT方案的集成困难重重。
那么要怎样才能实现一个方案的快速搭建呢?
答案便是IoT Plug & Play~

Azure IoT&NVIDIA Jetson开发简介
如上图所示,整个IoT Plug & Play大致由三个关键要素构成。

  • Digital Twin Definition Language(DTDL)是用于描述设备的语言,可将设备能力进行建模。
  • 设备的模型由遥测、属性和命令三种元素定义。
    – 遥测是由设备发出的数据,包括常规读数流、偶发错误或信息消息。
    – 属性包括只读或可写两种属性。举例来说,只读属性有设备序列号等;可写属性有水位报警阈值、报告环境状况的时间间隔等。
    – 命令是对设备的操作和控制。例如关闭设备、控制设备进行灌溉等。
  • 最后是IoT Hub&IoT Central。IoT Hub用于保证 IoT 应用程序和设备之间双向通信的安全性。IoT Central 能自动加载经过认证的设备模型,并实现对设备状况的监控、设备和其相关数据的管理以及规则的自定义。

如此,有了设备模型,只需要知道设备具有哪些能力,不再需要了解设备接口和底层的具体细节,从而能减少针对设备特异性所需的个性化定制。再结合IoT Hub&IoT Central就可以轻松地连接、监控和管理设备了。^_^

在本次演示实验中,微软的熊宇老师使用连接了传感器和LED的M5Stack Core2简单演示了IoT Plug & Play快速搭建方案的过程。
在UIFlow图形化IDE中拖拽模块再填写相应参数即可完成对业务逻辑的设计。比如这里实现了每隔5s发送传感器获取到的温湿度压力值以及加速度值,还可通过IoT Central发出的命令实现对LED点亮颜色的控制。
Azure IoT&NVIDIA Jetson开发简介
通过生成API Token,UIFlow就可与对应的IoT Central相连。再在UIFlow中创建template和device,然后将程序烧录到设备中。这样就可以在IoT Central中查看到我们刚刚设计好业务逻辑的设备啦!(连接好的状态是Provisioned)
Azure IoT&NVIDIA Jetson开发简介
现在就能实现对设备的监控和命令了。
这里能看到前面所要求的每隔5s发送的数据。
Azure IoT&NVIDIA Jetson开发简介

这里是将设备上的1号LED小灯的光设置为了红色并点亮。
Azure IoT&NVIDIA Jetson开发简介

可以看出整个过程的操作十分简单,也无需自己写代码(当然有特殊的需求需要自己写)。

对更多详细信息感兴趣的小伙伴还可以戳这里→链接: 官方IoT Plug & Play介绍
(注:本小节所用图来自本活动PPT或直播截图

NVIDIA Jetson

Jetson

Jetson是NVIDIA推出的一系列面向边缘AI的高性能低功耗平台,包括Jetson Nano和Jetson Xavier NX等。平台包括 Jetson 模组(外形小巧的高性能计算机)、用于加速软件的 NVIDIA JetPack SDK,以及包含传感器、SDK、服务和产品的生态系统,上述软硬件与生态的支持使得开发过程更为容易。
Azure IoT&NVIDIA Jetson开发简介
相关硬件(看不清可以去官网)与软件说明截图如下:
Azure IoT&NVIDIA Jetson开发简介
Azure IoT&NVIDIA Jetson开发简介

利用TAO Toolkit实现模型的训练、调整与优化

TAO这三个大写字母即是来自Train(训练)、Adapt(调整)、Optimize(优化)的首字母。
TAO Toolkit是一个基于 python 的工具包,它使开发人员能够使用 NVIDIA 预先训练好的模型,并让开发人员能够使用流行的网络架构适配自己的数据来训练、调整、修剪和导出以进行部署。它拥有简单的接口和抽象,提高了深度学习训练工作流程的效率。
Azure IoT&NVIDIA Jetson开发简介使用的TAO Toolkit大致流程如下:
配置环境和路径→准备数据集和预训练模型→定义执行设置→训练模型→评估训练结果→(模型剪枝→重新训练剪枝后的模型→)模型导出。

利用TensorRT部署TAO训练的模型

TensorRT可在以下几个方面对模型的推理进行优化:

  • 精度校准:在尽量保证准确率的情况下,使用如FP16或INT8的低精度数据类型能使模型的体积更小,从而加速推理并减少延迟。
  • 动态显存:避免显存的重复申请以及浪费,如让使用完的显存及时释放。
  • 多流执行:并行处理多个输入流。
  • 网络层融合:纵向上可将结构和计算方式相同的层融合计算。横向上则可把卷积、偏置和激活层融合为一个CBR结构。这样能减少网络层数,优化对GPU显存和带宽的使用。
  • 内核自调整:以当前模型在目前所在GPU平台上达到最优性能为目的,调整算法并设置内核。

Azure IoT&NVIDIA Jetson开发简介
如上图所示,整个使用流程大致如下:
将训练好的网络优化得到推理引擎,并序列化到磁盘得到Plan文件→需要使用时对上述文件进行反序列化,生成可执行的引擎。

需要注意:生成的Plan文件不能跨硬件平台或软件版本使用!

(注:本节所用图来自本活动PPT或直播截图

总结

我们可以看到Azure丰富的资源以及其在IoT业务上的各种解决方案,Jetson软硬件与生态的支持也让边缘AI开发变得更为容易。
本次第二个动手实验也是首先使用Azure的资源获取训练数据,再使用Azure资源中的“自定义视觉”完成模型训练,最终导出模型上传至Jetson Nano实现了一个简单的口罩识别解决方案。
希望小伙伴们在这里可以找到自己感兴趣的东西(o´ω`o)ノ~文章来源地址https://www.toymoban.com/news/detail-465374.html

到了这里,关于Azure IoT&NVIDIA Jetson开发简介的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Nvidia Jetson Orin 开发板配置开发环境

    参考文档:(官方)https://developer.nvidia.com/embedded/learn/get-started-jetson-agx-orin-devkit Check your L4T version first to see if you have a unit flashed with older version of the BSP. You may get something like this, # R34 (release), REVISION: 1.0, GCID: 30102743, BOARD: t186ref, EABI: aarch64, DATE: Wed Apr 6 19:11:41 UTC 2022, and this show

    2024年02月07日
    浏览(47)
  • Nvidia Jetson 编解码开发(1)介绍

    由于项目需要,需要开发Jetson平台的硬件编解码; 优化CPU带宽,后续主要以介绍硬件编解码为主 如下是拿了Jetson nano/tx2/Xavier等几个平台做对比; 这里说明的编解码性能主要是对硬件来说的 优点:功能强大、实现容易,工具强大 缺点: 占用CPU很大 常用工具有如下: ffmpeg、

    2024年02月12日
    浏览(33)
  • NVIDIA Jetson AGX Orin开发套件刷机说明&镜像制作

    V1.0.0 – by Holden Date : 2023-03-09 ​ 借助功能强大的 AI 计算机,为节能高效的自主机器带来新一代产品。NVIDIA® Jetson Orin™ 模组算力高达每秒 275 万亿次浮点运算 (TOPS),性能是上一代产品的 8 倍,适用于多个并发 AI 推理管道,此外它还可以通过高速接口为多个传感器提供支持。

    2024年02月10日
    浏览(115)
  • 【AI】AI入门之Nvidia Jetson平台(四)- Xavier NX软件开发环境安装部署

    目录 一. CUDA安装 二. cuDNN安装 三. TensorRT安装 3.1 Pycuda安装 四. TensorFlow安装 五. PyTorch安装 六. DeepStream安装​​​​​​​ ​​​​​​​6.1 安装依赖软件 ​​​​​​​6.2 安装DeepStream SDK ​​​​​​​6.3 运行DEMO ​​​​​​​七. Multimedia API安装 ​​​​​​

    2024年01月16日
    浏览(43)
  • 【在英伟达nvidia的jetson-orin-nx和PC电脑ubuntu20.04上-装配ESP32开发调试环境-基础测试】

    最近在使用一直在调试ESP32,作为新手,也有很多不懂的地方,一点点慢慢学,开始是装的win环境,后来又尝试了jetson-orin-nx和ubuntu上,在Linux 下开发都习惯使用命令行,但是在Windows下习惯使用软件点,而调试esp32的话,还是建议使用命令行形式。 当然说得有点远了,本次主要

    2024年02月08日
    浏览(38)
  • 玩转NVIDIA Jetson (25)--- jetson 安装pytorch和torchvision

    在jetson上安装pytorch能够快速的帮助PC用户在熟悉的环境下进行开发,但是这个过程里边有一些坑,我建议大家参照官方给出的安装指导来进行安装,包括pytorch和包含各种网络的torchvision。官方安装如下,这个topic里会持续更新各个版本的pytorch。 PyTorch for Jetson - version 1.11 now

    2024年02月15日
    浏览(40)
  • 【AI】AI入门之Nvidia Jetson平台(一)- Jetson平台介绍

    目录 一. Jetson概述 二. Jetson系列 2.1 产品图谱  2.2 参数对比  2.3 Xavier NX模组  三. NVIDIA GPU 3.1 架构演变 3.2 Volta GPU   四. Xavier NX开发套件 NVIDIA ®   Jetson ™  是世界领先的平台,适用于自主机器和其他嵌入式应用进行边缘计算部署。例如自主机器人,便携式医疗设备等。  

    2024年02月16日
    浏览(45)
  • 【20230407】NVIDIA显卡算力、Jetson比较

    TOPS :指的是每秒钟可以执行的整数运算次数,它代表着计算机在处理图像、音频等任务时的处理能力。TOPS的单位是万亿次每秒(trillion operations per second)。一般是指整数运算能力 INT8 。 TFLOPS :指的是每秒钟可以执行的浮点运算次数,它代表着计算机在处理科学计算、机器

    2024年02月05日
    浏览(46)
  • Nvidia Jetson系列产品安装Perf

    原创CSDN博客链接:https://blog.csdn.net/nigaoshang/article/details/127276275 原创链接 !!!禁止转载!!! 如果该文章对你有帮助,欢迎点赞 Perf 是Linux kernel自带的系统性能优化工具,Perf的优势在于与Linux Kernel的紧密结合,能够进行函数级和指令级的热点查找,可以用来分析程序中热点函数的

    2023年04月12日
    浏览(34)
  • NVIDIA jetson编译opencv 源码 python版本

    安装 jetson-stats 查看GPU的利用率 sudo apt-get install python3-pip sudo -H pip3 install jetson-stats 运行 jtop 进行查看 opencv 编译python版本 编译命令 cmake -D CMAKE_INSTALL_PREFIX=/usr/local/opencv-4.6.0 -D CMAKE_BUILD_TYPE=RELEASE -D WITH_OPENGL=ON  -D BUILD_TIFF=ON -D WITH_TBB=ON -D WITH_V4L=ON -D WITH_GTK_2_X=ON  -D WITH_QT=ON  -

    2024年01月21日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包