行为识别SlowFast笔记--环境配置和Demo展示

这篇具有很好参考价值的文章主要介绍了行为识别SlowFast笔记--环境配置和Demo展示。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

前言:

1--环境配置

2--测试Demo

2-1--测试命令

2-2--测试结果

3--相关报错解决


前言:

        本地环境如下:

Ubuntu 20.04

Cuda 11.3

NVIDIA GeForce RTX 3060

1--环境配置

        具体请参考官方提供的文档:slowfast官方安装文档,以下为博主在本地安装的过程:

① 配置 python 环境

conda create -n slowfast python=3.8

② 配置 pytorch 环境

conda install pytorch==1.11.0 torchvision==0.12.0 torchaudio==0.11.0 cudatoolkit=11.3 -c pytorch

③ 安装 fvcore

pip install 'git+https://github.com/facebookresearch/fvcore'

④ 安装simplejson

pip install simplejson

⑤ 安装PyAV

conda install av -c conda-forge

⑥ 安装iopath

pip install -U iopath

⑦ 安装psutil

pip install psutil

⑧ 安装OpenCV

pip install opencv-python

⑨ 安装tensorboard

pip install tensorboard

⑩ 安装moviepy

pip install moviepy

⑪ 安装PyTorchVideo

pip install pytorchvideo

⑫ 安装Detection

git clone https://github.com/facebookresearch/detectron2.git
python -m pip install -e detectron2

⑬ 安装FairScale

pip install 'git+https://github.com/facebookresearch/fairscale'

⑭ 安装scipy

pip isntall scipy

⑮ 安装和编译PySlowFast

git clone https://github.com/facebookresearch/slowfast
export PYTHONPATH=/home/liujinfu/Desktop/slowfast_ljf/SlowFast/slowfast:$PYTHONPATH

cd SlowFast
python setup.py build develop

2--测试Demo

2-1--测试命令

python tools/run_net.py --cfg demo/AVA/SLOWFAST_32x2_R101_50_50.yaml

博主 SLOWFAST_32x2_R101_50_50.yaml 的内容如下:

TRAIN:
  ENABLE: False
  DATASET: ava
  BATCH_SIZE: 16
  EVAL_PERIOD: 1
  CHECKPOINT_PERIOD: 1
  AUTO_RESUME: True
  CHECKPOINT_FILE_PATH: /home/liujinfu/Desktop/slowfast_ljf/model/SLOWFAST_32x2_R101_50_50.pkl  #path to pretrain model
  CHECKPOINT_TYPE: pytorch
DATA:
  NUM_FRAMES: 32
  SAMPLING_RATE: 2
  TRAIN_JITTER_SCALES: [256, 320]
  TRAIN_CROP_SIZE: 224
  TEST_CROP_SIZE: 256
  INPUT_CHANNEL_NUM: [3, 3]
DETECTION:
  ENABLE: True
  ALIGNED: False
AVA:
  BGR: False
  DETECTION_SCORE_THRESH: 0.8
  TEST_PREDICT_BOX_LISTS: ["person_box_67091280_iou90/ava_detection_val_boxes_and_labels.csv"]
SLOWFAST:
  ALPHA: 4
  BETA_INV: 8
  FUSION_CONV_CHANNEL_RATIO: 2
  FUSION_KERNEL_SZ: 5
RESNET:
  ZERO_INIT_FINAL_BN: True
  WIDTH_PER_GROUP: 64
  NUM_GROUPS: 1
  DEPTH: 101
  TRANS_FUNC: bottleneck_transform
  STRIDE_1X1: False
  NUM_BLOCK_TEMP_KERNEL: [[3, 3], [4, 4], [6, 6], [3, 3]]
  SPATIAL_DILATIONS: [[1, 1], [1, 1], [1, 1], [2, 2]]
  SPATIAL_STRIDES: [[1, 1], [2, 2], [2, 2], [1, 1]]
NONLOCAL:
  LOCATION: [[[], []], [[], []], [[6, 13, 20], []], [[], []]]
  GROUP: [[1, 1], [1, 1], [1, 1], [1, 1]]
  INSTANTIATION: dot_product
  POOL: [[[2, 2, 2], [2, 2, 2]], [[2, 2, 2], [2, 2, 2]], [[2, 2, 2], [2, 2, 2]], [[2, 2, 2], [2, 2, 2]]]
BN:
  USE_PRECISE_STATS: False
  NUM_BATCHES_PRECISE: 200
SOLVER:
  MOMENTUM: 0.9
  WEIGHT_DECAY: 1e-7
  OPTIMIZING_METHOD: sgd
MODEL:
  NUM_CLASSES: 80
  ARCH: slowfast
  MODEL_NAME: SlowFast
  LOSS_FUNC: bce
  DROPOUT_RATE: 0.5
  HEAD_ACT: sigmoid
TEST:
  ENABLE: False
  DATASET: ava
  BATCH_SIZE: 8
DATA_LOADER:
  NUM_WORKERS: 2
  PIN_MEMORY: True

NUM_GPUS: 1
NUM_SHARDS: 1
RNG_SEED: 0
OUTPUT_DIR: .
#TENSORBOARD:
  #MODEL_VIS:
    #TOPK: 2
DEMO:
  ENABLE: True
  LABEL_FILE_PATH: /home/liujinfu/Desktop/slowfast_ljf/model/ava.json
  INPUT_VIDEO: "/home/liujinfu/Desktop/slowfast_ljf/input/1.avi"
  OUTPUT_FILE: "/home/liujinfu/Desktop/slowfast_ljf/output/1.avi"
  #WEBCAM: 0
  DETECTRON2_CFG: "COCO-Detection/faster_rcnn_R_50_FPN_3x.yaml"
  DETECTRON2_WEIGHTS: detectron2://COCO-Detection/faster_rcnn_R_50_FPN_3x/137849458/model_final_280758.pkl

需要修改的配置参数如下:

① CHECKPOINT_FILE_PATH:权重文件的路径(官方提供的权重文件下载:slowfast 已训练权重文件下载)

CHECKPOINT_FILE_PATH: /home/liujinfu/Desktop/slowfast_ljf/model/SLOWFAST_32x2_R101_50_50.pkl  #path to pretrain model

② LABEL_FILE_PATH:标签文件,博主将其构造为 ava.json 格式,内容如下:

{"bend/bow (at the waist)": 0, "crawl": 1, "crouch/kneel": 2, "dance": 3, "fall down": 4, "get up": 5, "jump/leap": 6, "lie/sleep": 7, "martial art": 8, "run/jog": 9, "sit": 10, "stand": 11, "swim": 12, "walk": 13, "answer phone": 14, "brush teeth": 15, "carry/hold (an object)": 16, "catch (an object)": 17, "chop": 18, "climb (e.g., a mountain)": 19, "clink glass": 20, "close (e.g., a door, a box)": 21, "cook": 22, "cut": 23, "dig": 24, "dress/put on clothing": 25, "drink": 26, "drive (e.g., a car, a truck)": 27, "eat": 28, "enter": 29, "exit": 30, "extract": 31, "fishing": 32, "hit (an object)": 33, "kick (an object)": 34, "lift/pick up": 35, "listen (e.g., to music)": 36, "open (e.g., a window, a car door)": 37, "paint": 38, "play board game": 39, "play musical instrument": 40, "play with pets": 41, "point to (an object)": 42, "press": 43, "pull (an object)": 44, "push (an object)": 45, "put down": 46, "read": 47, "ride (e.g., a bike, a car, a horse)": 48, "row boat": 49, "sail boat": 50, "shoot": 51, "shovel": 52, "smoke": 53, "stir": 54, "take a photo": 55, "text on/look at a cellphone": 56, "throw": 57, "touch (an object)": 58, "turn (e.g., a screwdriver)": 59, "watch (e.g., TV)": 60, "work on a computer": 61, "write": 62, "fight/hit (a person)": 63, "give/serve (an object) to (a person)": 64, "grab (a person)": 65, "hand clap": 66, "hand shake": 67, "hand wave": 68, "hug (a person)": 69, "kick (a person)": 70, "kiss (a person)": 71, "lift (a person)": 72, "listen to (a person)": 73, "play with kids": 74, "push (another person)": 75, "sing to (e.g., self, a person, a group)": 76, "take (an object) from (a person)": 77, "talk to (e.g., self, a person, a group)": 78, "watch (a person)": 79}

③ INPUT_VIDEO:输入测试视频的路径

INPUT_VIDEO: "/home/liujinfu/Desktop/slowfast_ljf/input/1.avi"

④ OUTPUT_FILE:输出测试视频的路径

OUTPUT_FILE: "/home/liujinfu/Desktop/slowfast_ljf/output/1.avi"

2-2--测试结果

slowfast安装,DL项目笔记,计算机视觉

        从截图可知,识别结果部分有误;

3--相关报错解决

报错 ①:error: Could not find suitable distribution for Requirement.parse('PIL');

出现在编译安装PySlowFast的过程中:python setup.py build develop;

解决方法:参考如下官方 issues,修改 setup 文件,将 PIL 修改为 Pillow;Could not find suitable distribution for Requirement.parse('PIL')

slowfast安装,DL项目笔记,计算机视觉

报错 ②:cannot import name 'Cal_all_gather' From 'pytorchvideo.layers.distributed';

报错的原因是未能正确安装 pytorchvideo,具体解决方法可参考如下官方 issues,从源码编译 pytorchvideo;

ImportError: cannot import name 'cat_all_gather' from 'pytorchvideo.layers.distributed'

slowfast安装,DL项目笔记,计算机视觉

报错 ③:no module named 'sklearn';

报错的原因是新版本不支持 sklearn,具体可见如下官方issues,解决方法是安装scikit-learn:pip install scikit-learn

INSTALL.md is not up-to-date. Here is an updated version in my SlowFast fork

slowfast安装,DL项目笔记,计算机视觉

报错 ④:

报错的原因是配置文件 SLOWFAST_32x2_R101_50_50.yaml 有误,具体可参考如下官方issues:

input video for demo, but got KeyError

解决方法:将配置文件有关 Tensorboard 的模块注释掉,即:

# TENSORBOARD:
  # MODEL_VIS:
    # TOPK: 2

slowfast安装,DL项目笔记,计算机视觉文章来源地址https://www.toymoban.com/news/detail-672253.html

到了这里,关于行为识别SlowFast笔记--环境配置和Demo展示的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • slowfast源码详解

    首先,我们需要从frame_list文件夹的train.csv/val.csv取出图片地址和视频的名称    第二,从annotation取出标签,其中包括ava_train_v2.2.csv文件中的真实框标签,以及ava_train_v2.2.csv,person_box_67091280_iou90/ava_detection_train_boxes_and_labels_include_negative_v2.2.csv\\\'提供的大于阈值的预测框标签,预测

    2024年02月06日
    浏览(46)
  • 华为Atlas200DK的环境部署与运行demo(人脸识别)

    Atlas 200 DK 开发者套件(型号 3000)是以Atlas 200 AI加速模块(型号 3000)为核心的开发者板形态的终端类产品。主要功能是将Atlas 200 AI加速模块(型号 3000)的接口对外开放,方便用户快速简捷的使用Atlas 200 AI加速模块(型号 3000),可以运用于平安城市、无人机、机器人、视频

    2024年02月05日
    浏览(44)
  • MMAction2-视频理解、行为识别(学习笔记-附代码实操)

    行为识别,时序检测,时空检测三种任务的联系 对于视频的理解 视频 = 空间 + 时间:图像为二维空间,视频是三维,视频相对于图像多出来的维度就是时间维度。 视频理解的重点 重点1:如何描述视频中的动作 ? 动作 = 外观 + 运动。外观是静态的,是图像帧。运动是动态的

    2023年04月09日
    浏览(52)
  • 科研笔记-无线感知第1篇(基于WIFI CSI进行人体行为识别调查)

    目录 基于WIFI CSI进行人体行为识别调查 人体姿态识别研究现状: 无线感知相关知识点: WIFI系统的局限性: 基于 Wi-Fi CSI 的行为识别: 基于直方图的技术: CSI 去噪: 特征提取: 用于分类的机器学习: 多用户活动识别: 人体姿态识别研究现状:       1,在现有的系统中,个人

    2024年02月05日
    浏览(57)
  • 三维目标检测之OpenPCDet环境配置及demo测试

    很久没写过关于环境配置的博客了,这次实在是因为,自己在是在OpenPCDet环境的配置上遇到坑了。一环扣一环,由于我的实验环境是ubuntu16.04,跟网上大多数教程环境不一样,所以遇到了很多版本不匹配问题。 Ubuntu 16.04 RTX 2080 CUDA 10.1 验证cmake版本 cmake版本要大于等于1.13,不

    2023年04月15日
    浏览(36)
  • RK3568开发笔记(七):在宿主机ubuntu上搭建Qt交叉编译开发环境,编译一个Demo,目标板运行Demo测试

    若该文为原创文章,转载请注明原文出处 本文章博客地址:https://hpzwl.blog.csdn.net/article/details/132733901 红胖子网络科技博文大全:开发技术集合(包含Qt实用技术、树莓派、三维、OpenCV、OpenGL、ffmpeg、OSG、单片机、软硬结合等等)持续更新中… 上一篇:《RK3568开发笔记(六):

    2024年02月07日
    浏览(57)
  • 支付宝 网站支付Demo 案例【沙箱环境】IDEA如何配置启动Eclipse项目

    我 | 在这里 🕵️ 读书 | 长沙 ⭐软件工程 ⭐ 本科 🏠 工作 | 广州 ⭐ Java 全栈开发(软件工程师) 🎃 爱好 | 研究技术、旅游、阅读、运动、喜欢流行歌曲 ✈️已经旅游的地点 | 新疆-乌鲁木齐、新疆-吐鲁番、广东-广州、广东-佛山、湖南-长沙、湖南-张家界、山西、上海、

    2023年04月24日
    浏览(106)
  • 骨架机器人P4——行为树demo

            tick是从树的根节点(或起点)到其子节点的信号,敦促它们执行任务。 节点仅在收到即时报价时“采取行动”。          节点开始执行其任务后,它会使用以下三种状态之一与控制器(其父节点)通信其进度: 正在运行 、 成功 或 失败 。 根据这些状态,

    2024年02月02日
    浏览(39)
  • docker快速部署oracle19c、oracle12c,测试环境问题复现demo快速搭建笔记

    (复制sql,替换表名执行完毕后,再修改自己想要的字段即可) (复制sql,替换自己的表名) 一个oracle表示一个实例,一个实例可以配置多个服务,独立维护的oracle服务 一个服务内可以有多个表空间,默认表空间就有很多,比如常见的SYSTEM、TEMP、USERS 常见的默认角色: 1、

    2024年02月04日
    浏览(60)
  • RK3568开发笔记(八):开发板烧写buildroot固件(支持hdmi屏),搭建Qt交叉编译开发环境,编译一个Demo,目标板运行Demo测试

    若该文为原创文章,转载请注明原文出处 本文章博客地址:https://hpzwl.blog.csdn.net/article/details/132826197 红胖子网络科技博文大全:开发技术集合(包含Qt实用技术、树莓派、三维、OpenCV、OpenGL、ffmpeg、OSG、单片机、软硬结合等等)持续更新中… 上一篇:《RK3568开发笔记(七):

    2024年02月07日
    浏览(112)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包