SNPE教程3 - 在手机上部署运行

这篇具有很好参考价值的文章主要介绍了SNPE教程3 - 在手机上部署运行。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

写在前面

  1. 手机部署和推理参考:
    https://developer.qualcomm.com/sites/default/files/docs/snpe/tutorial_inceptionv3.html

  2. 运行命令snpe-net-run的说明参考:
    https://developer.qualcomm.com/sites/default/files/docs/snpe/tools.html

  3. DSP环境配置:
    https://developer.qualcomm.com/sites/default/files/docs/snpe/dsp_runtime.html

  4. 手机是需要root的

  5. 大坑提示:
    骁龙855需要用的snpe的版本不能太高,我最后用的1.40成功了,1.66检测不到gpu和dsp;

    设置DSP的环境变量ADSP_LIBRARY_PATH的时候和设置LD_LIBRARY_PATH不一样。官网写到:路径之间的间隔不用冒号,而是用分号;路径必须在引号中;三个路径必须包含。但是我用的手机没有/dsp这个路径,我没设,也成功了。

    Key points to note when setting the ADSP_LIBRARY_PATH:
    
    Unlike LD_LIBRARY_PATH the path must be contained within quotations. 
    Additionally unlike LD_LIBRARY_PATH, the directory separator is a semi-colon, not a colon.
    
    For Android and most embeded linux systems, the 3 paths below MUST be part of ADSP_LIBRARY_PATH. If any of these are missing the DSP runtime may fail.
    /system/lib/rfsa/adsp
    /system/vendor/lib/rfsa/adsp
    /dsp
    For embeded linux automotive system, the following DSP paths are required.
    /usr/lib/rfsa/adsp
    /dsp
    

1、Push binaries to target

The SNPE SDK provides Linux and Android binaries of snpe-net-run under

$SNPE_ROOT/bin/x86_64-linux-clang
$SNPE_ROOT/bin/arm-android-clang6.0
$SNPE_ROOT/bin/aarch64-android-clang6.0
$SNPE_ROOT/bin/aarch64-oe-linux-gcc6.4
$SNPE_ROOT/bin/arm-oe-linux-gcc6.4hf

我们在安卓手机上运行,如果是architecture: armeabi-v7a选择arm-android-clang6.0 ;如果是arm64-v8a,选择aarch64-android-clang6.0
在host的命令行中输入,将必要的lib和bin的内容推到安卓机上。

export SNPE_TARGET_ARCH=arm-android-clang6.0
export SNPE_TARGET_STL=libc++_shared.so

adb shell "mkdir -p /data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/bin"
adb shell "mkdir -p /data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/lib"
adb shell "mkdir -p /data/local/tmp/snpeexample/dsp/lib"

adb push $SNPE_ROOT/lib/$SNPE_TARGET_ARCH/$SNPE_TARGET_STL \
      /data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/lib
adb push $SNPE_ROOT/lib/$SNPE_TARGET_ARCH/*.so \
      /data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/lib
adb push $SNPE_ROOT/lib/dsp/*.so \
      /data/local/tmp/snpeexample/dsp/lib
adb push $SNPE_ROOT/bin/$SNPE_TARGET_ARCH/snpe-net-run \
      /data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/bin

2、将数据和模型推到安卓机上

cd $SNPE_ROOT/models/inception_v3
mkdir data/rawfiles && cp data/cropped/*.raw data/rawfiles/
adb shell "mkdir -p /data/local/tmp/inception_v3"
adb push data/rawfiles /data/local/tmp/inception_v3/cropped
adb push data/target_raw_list.txt /data/local/tmp/inception_v3
adb push dlc/inception_v3_quantized.dlc /data/local/tmp/inception_v3
rm -rf data/rawfiles

3、在安卓机上设置环境变量

好像每次进入一个adb shell都要重设一遍,永久设置的方案我还没试

adb shell
export SNPE_TARGET_ARCH=arm-android-clang6.0
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/lib
export PATH=$PATH:/data/local/tmp/snpeexample/$SNPE_TARGET_ARCH/bin
snpe-net-run -h

4、使用CPU进行推理

输入推理命令,注意对应的文件路径:

cd /data/local/tmp/inception_v3
snpe-net-run --container inception_v3.dlc --input_list target_raw_list.txt

推理的结果默认保存在output下,运行时,使用--output_dir参数,后面加上自己的输出路径

5、使用GPU进行推理

输入推理命令,注意对应的文件路径:snpe-net-run --container inception_v3.dlc --input_list data/cropped/raw_list.txt --output_dir output_gpu --use_gpu

6、使用DSP进行推理

详见“写在前面”的第3条的网页,注意设置环境变量详见“写在前面”的最后一条

# config dsp env
export ADSP_LIBRARY_PATH="/data/local/tmp/incpv3_40/dsp/lib;/system/vendor/lib/rfsa/adsp;/system/system_ext/lib/rfsa/adsp"

输入推理命令

snpe-net-run --container inception_v3_quanti.dlc --input_list data/cropped/raw_list.txt --output_dir output_dsp --use_dsp

结果:
snpe,SNPE,linux,android,深度学习

结果分析

将运行结果从安卓机pull到host上

CPU

(root) root@node2-virtual-machine:/home/node2/snpe/snpe-1.40.0.2130/bin/x86_64-linux-clang# ./snpe-diagview --input_log /home/node2/snpe/inception_demo/output_cpu/SNPEDiag_0.log
Interpreting file serialized with Protobuf
Log File Created: Wed Oct  5 14:07:27 2022
Time Scale: 1e-06
Epoch Timestamp: 1664950047462994 Steady Clock Timestamp: 616682741723
Software library version: 1.40.0.2130

Dnn Runtime Load/Deserialize/Create/De-Init Statistics:
--------------------------------------------------
Load: 124 us
Deserialize: 303082 us
Create: 275542 us

Init: 579341 us
De-Init: 44160 us

Create Network(s): 187526 us
RPC Init Time: 0 us
Snpe Accelerator Init Time: 0 us
Accelerator Init Time: 0 us

Average SNPE Statistics:
------------------------------
Total Inference Time: 283228 us
Forward Propagate Time: 283205 us
RPC Execute Time: 0 us
Snpe Accelerator Time: 0 us
Accelerator Time: 0 us
Misc Accelerator Time: 0 us

Layer Times: 
---------------
0: 10 us : CPU
1: 7026 us : CPU
2: 2484 us : CPU
3: 19498 us : CPU

GPU

(root) root@node2-virtual-machine:/home/node2/snpe/snpe-1.40.0.2130/bin/x86_64-linux-clang# ./snpe-diagview --input_log /home/node2/snpe/inception_demo/output_gpu/SNPEDiag_0.log
Interpreting file serialized with Protobuf
Log File Created: Thu Sep 29 19:55:52 2022
Time Scale: 1e-06
Epoch Timestamp: 1664452552705708 Steady Clock Timestamp: 367353572182
Software library version: 1.40.0.2130

Dnn Runtime Load/Deserialize/Create/De-Init Statistics:
--------------------------------------------------
Load: 148 us
Deserialize: 87545 us
Create: 1481574 us

Init: 1582893 us
De-Init: 66284 us

Create Network(s): 279867 us
RPC Init Time: 0 us
Snpe Accelerator Init Time: 0 us
Accelerator Init Time: 0 us

Average SNPE Statistics:
------------------------------
Total Inference Time: 74891 us
Forward Propagate Time: 74350 us
RPC Execute Time: 0 us
Snpe Accelerator Time: 0 us
Accelerator Time: 0 us
Misc Accelerator Time: 0 us

Layer Times: 
---------------
0: 76 us : GPU
1: 258 us : GPU
2: 104 us : GPU

DSP

(root) root@node2-virtual-machine:/home/node2/snpe/snpe-1.40.0.2130/bin/x86_64-linux-clang# ./snpe-diagview --input_log /home/node2/snpe/inception_demo/output_dsp/SNPEDiag_0.log
Interpreting file serialized with Protobuf
Log File Created: Thu Sep 29 20:24:07 2022
Time Scale: 1e-06
Epoch Timestamp: 1664454247241986 Steady Clock Timestamp: 369048108460
Software library version: 1.40.0.2130

Dnn Runtime Load/Deserialize/Create/De-Init Statistics:
--------------------------------------------------
Load: 139 us
Deserialize: 84410 us
Create: 1255474 us

Init: 1342995 us
De-Init: 53234 us

Create Network(s): 838072 us
RPC Init Time: 318394 us
Snpe Accelerator Init Time: 316750 us
Accelerator Init Time: 309395 us

Average SNPE Statistics:
------------------------------
Total Inference Time: 21012 us
Forward Propagate Time: 20957 us
RPC Execute Time: 19846 us
Snpe Accelerator Time: 18466 us
Accelerator Time: 16913 us
Misc Accelerator Time: 13 us

Layer Times: 
---------------
0: 157 us : DSP
1: 0 us : DSP
2: 291 us : DSP
3: 0 us : DSP

AIP

(root) root@node2-virtual-machine:/home/node2/snpe/snpe-1.40.0.2130/bin/x86_64-linux-clang# ./snpe-diagview --input_log /home/node2/snpe/inception_demo/output_aip/SNPEDiag_0.log
Interpreting file serialized with Protobuf
Log File Created: Tue Oct  4 20:11:14 2022
Time Scale: 1e-06
Epoch Timestamp: 1664885474100794 Steady Clock Timestamp: 558001916484
Software library version: 1.40.0.2130

Dnn Runtime Load/Deserialize/Create/De-Init Statistics:
--------------------------------------------------
Load: 148 us
Deserialize: 25203 us
Create: 393726 us

Init: 420999 us
De-Init: 55800 us

Create Network(s): 17399 us
RPC Init Time: 327292 us
Snpe Accelerator Init Time: 325744 us
Accelerator Init Time: 319019 us

Average SNPE Statistics:
------------------------------
Total Inference Time: 15338 us
Forward Propagate Time: 15280 us
RPC Execute Time: 14311 us
Snpe Accelerator Time: 13306 us
Accelerator Time: 11786 us
Misc Accelerator Time: 25 us

Layer Times: 
---------------
0: 150 us : DSP
1: 0 us : DSP
2: 238 us : DSP
3: 0 us : DSP
4: 247 us : DSP

snpe-platform-validator的使用

这是一个测试设备处理器兼容性的命令。
详见“写在前面”的第2条的网页,注意如果是前面cpu推理是用的arm-android-clang6.0里的,还是aarch64-android-clang6.0 里的内容,这里保持一致。

报错

  1. 使用gpu进行推理报错

    error_code=1006; error_message=Invalid constraint. error_code=1006; error_message=Invalid constraint. 
    No GPU device available for target UNKNOWN_SDM; 
    error_component=Model Validation; line_no=77; thread_id=535068429568; error_component=Model Validation; line_no=342; thread_id=547735115000
    
    输入命令:snpe-platform-validator --runtime all
    返回:
    SNPE is not supported on this SoC.
    

    最后的解决方案是把snpe1.66换成了1.40,成功解决。还有一点点小差异是1.66里面用的是aarch64-android-clang8.0,后来换成了arm-android-clang6.0,应该和这里没关系吧。
    遇到这种报错其实有点,无从下手,我的思路是广泛查找,csdn,论坛,google,Stack Overflow都看一下,然后列了一下解决思路,然后根据经验一条条试试
    snpe,SNPE,linux,android,深度学习

    https://developer.qualcomm.com/forum/qdn-forums/software/qualcomm-neural-processing-sdk/59207
    https://developer.qualcomm.com/forum/qdn-forums/software/snapdragon-neural-processing-engine-sdk/35112

  2. GPU不报错了,DSP推理有报错

    The selected runtime is not available on this platform. Continue anyway to observe the failure at network creation time.
    error_code=500; error_message=Target runtime is not available. error_code=500; error_message=Target runtime is not available. No viable runtimes available.; error_component=Host Runtime; line_no=328; thread_id=-404725280; error_component=Host Runtime; line_no=271; thread_id=-352988048
    

    仔细看了一下官方文档,应该是环境变量设的有问题。详见文章开头“写在前面”最后一条

mark一下我自己设置时需要用的环境变量

可能和前文有点出入,但也给大家列出来参考一下

# config snpe-net-run env
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/data/local/tmp/incpv3_40/arm-android-clang6.0/lib
export PATH=$PATH:/data/local/tmp/incpv3_40/arm-android-clang6.0/bin

# config snpe-platform-validator
export PATH=$PATH:/data/local/tmp/platformValidator/bin

# config dsp env
export ADSP_LIBRARY_PATH="/data/local/tmp/incpv3_40/dsp/lib;/system/vendor/lib/rfsa/adsp;/system/system_ext/lib/rfsa/adsp"

查找命令

找dsp相关的环境变量时用到了,mark一下。
find 命令是完全匹配的,必须和搜索关键字一模一样才会列出。
Linux 中的文件名是区分大小写的,也就是说,搜索小写文件,是找不到大写文件的。如果想要大小通吃,就要使用 -iname 来搜索文件。2>/dev/null是不显示无权限的目录。文章来源地址https://www.toymoban.com/news/detail-605173.html

find / -name libOpenCL.so 2>/dev/null 

到了这里,关于SNPE教程3 - 在手机上部署运行的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 在手机上运行python文件(qpython版)

    声明:本教程所使用的软件为qpython;第一次写教程,如有错误,还请指出,谢谢! 软件下载: QPython - Python on Android​​​​​​  下载完成后打开,遇到如下选项,选择你Python文件所使用的Python版本,一般是Python3(右 边的那个)  选好后点击编辑器,如果你是直接要编写代

    2024年02月16日
    浏览(30)
  • 利用Termux在手机上运行爬虫下载漫画

    前段时间喜欢上了几部漫画,发现了一个宝藏网站“拷贝漫画”。上面有很多我想看的漫画,但是访问速度很慢,官方提供的下载又有次数限制。于是就在GITHUB上找了一个大佬写的爬虫。 但是爬虫在电脑端运行,而我喜欢在手机平板上看漫画,每次要把文件拷贝过去,挺麻烦

    2024年02月10日
    浏览(29)
  • 在手机上如何运行python,手机如何运行python代码

    本篇文章给大家谈谈手机python编程软件怎么运行,以及在手机上如何运行python,希望对各位有所帮助,不要忘了收藏本站喔。 大家好,本文将围绕手机上如何运行python代码展开说明,手机如何运行python代码是一个很多人都想弄明白的事情,想搞清楚手机运行python程序图形需要

    2024年02月04日
    浏览(34)
  • 手机上的python怎么运行,python在手机上怎么运行

    大家好,小编来为大家解答以下问题,python程序如何在手机端运行,python程序如何在手机上运行,今天让我们一起来看看吧! Source code download: 本文相关源码 大家好,给大家分享一下python写的程序怎么在手机上运行,很多人还不知道这一点。下面详细解释一下熟练掌握Python就

    2024年01月16日
    浏览(48)
  • 手机的python怎么运行文件,python在手机上怎么运行

    大家好,小编来为大家解答以下问题,手机上的python怎么运行程序,手机的python怎么运行文件,今天让我们一起来看看吧! python语言应用很广泛,自己也很喜欢使用它,其实我们也可以直接在自己的安卓手机上做python开发学习,只需要简单的配置下环境就可以了。 首先我们

    2024年02月14日
    浏览(39)
  • QPython,一个在手机上运行Python的神器

    QPython 是一个在 Android 设备上运行 Python 的脚本引擎。它可以让您的 Android 设备运行 Python 脚本和项目。它包含 Python 解释器、控制台、编辑器和适用于 Android 的 SL4A 库。 QPython有两个版本一个是QPython支持python2.7版本,一个是QPython 3支持Python3版本。这里介绍的是QPython3,它对安

    2024年02月06日
    浏览(38)
  • vue项目运行后使用ip地址在手机上打开

    window+r,输入cmd按回车后在输入ipconfig ipv4地址就是你了 (1)vue.config.js文件中修改 host localhost 为 host 0.0.0.0 (2)你的vue.config.js文件可以由于配置较多,配置在了config文件夹的index.js文件中 (3)修改package.json文件中添加–host 0.0.0.0,然后重新重启项目。 “scripts”: { “dev”

    2024年02月12日
    浏览(28)
  • python在手机上怎么运行,手机怎么用python程序

    大家好,本文将围绕python在手机上怎么运行展开说明,手机怎么用python程序是一个很多人都想弄明白的事情,想搞清楚手机版的python怎么用需要先了解以下几个事情。 大家好,小编来为大家解答以下问题,手机上的python怎么运行程序,手机的python怎么运行文件,今天让我们一

    2024年02月03日
    浏览(39)
  • 手机上的python怎么运行,python在手机上怎么操作

    大家好,小编来为大家解答以下问题,python在手机上怎么操作,手机上的python怎么运行,现在让我们一起来看看吧! 手机浏览器运行python是因为手机浏览器和python两者之间是可以互相兼容的,手机浏览器可以对python的内容数据进行解压和储存显示,所以才会出现手机浏览器运

    2024年02月08日
    浏览(32)
  • python在手机上怎么运行,手机版的python怎么用

    这篇文章主要介绍了python在手机上怎么运行,具有一定借鉴价值,需要的朋友可以参考下。希望大家阅读完这篇文章后大有收获,下面让小编带着大家一起了解一下。 如何用手机编程Python? 1.QPython3:这是一个在安卓手机上运行python3的脚本引擎,整合了python3解释器、控制台

    2024年01月16日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包