本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA)

这篇具有很好参考价值的文章主要介绍了本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理

GitHub地址:https://github.com/dvlab-research/LISA
该项目论文paper reading:https://blog.csdn.net/Transfattyacids/article/details/132254770

在GitHub上下载源文件,进入下载的文件夹,打开该地址下的命令控制台,执行指令:

pip install -r requirements.txt
pip install flash-attn --no-build-isolation

几种报错解决方法:

  1. 下载包失败
    例:“pip install numpy”
    解决:“pip install numpy -i https://pypi.tuna.tsinghua.edu.cn/simple/”
    其他源:
    清华: https://pypi.tuna.tsinghua.edu.cn/simple/
    阿里云: http://mirrors.aliyun.com/pypi/simple/
    豆瓣:https://pypi.doubanio.com/simple

  2. 安装包版本冲突
    例:“tensorflow-intel 2.12.0 requires numpy<1.24,>=1.22, but you have numpy 1.24.2 which is incompatible.”
    解决:带上具体版本号,如“pip install numpy==1.23”

  3. 就是下不下来
    例: “ERROR: Could not build wheels for XXX, which is required to install pyproject.toml-based projects”
    解决:去网站下安装包,“.whl”文件到本地安装,列几个下载网站:
    https://download.pytorch.org/whl/
    https://pypi.org/project

(除了这2个,法1中的3个源也可以使用)
(还是下不下来,去对应包的GitHub,下载对应版本的releases)
下载完后执行:pip install file_name.whl(file_name是绝对地址)

之前https://www.lfd.uci.edu/~gohlke/pythonlibs/也可以下载whl,现在点进去是这样的下不了了
本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理
4. 还有一个很奇怪的方法:conda install -c conda-forge XXX

  • 下载预训练权重

如果想要自训练:

LLaVA:https://huggingface.co/decapoda-research
SAM:https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth

直接使用提供的权重:

LISA:https://huggingface.co/xinlai

有6个版本
本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理
我下载了LISA-13B-llama2-v0-explanatory(别下这个,我当时是因为作者只发布了两个版本,才下的,后面没用上,要下就选择v1的版本,内存大的下13B,小的下7B)

本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理

要用梯子,大文件要使用LFS,git clone不能克隆需要LFS的文件,大文件我都是一个个单独下的(漫长的下载过程orz

记得修改chat.py里权重的地址(图中第20行)
本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理

  • 运行chat.py

不出意料的报错了
本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理

模型加载不成功,应该归因于我过小的内存orz,借了一个云服务器

尝试运行的过程就是不断产生新的错误orz

这里不将遇到的报错一一罗列(太多太杂了),只展示遇到的最后两个error,uu们如果有其他问题可以在评论区提出了,我看到了且会解决的,就回复。

下面先展示一下我使用的云服务器的配置

  • 虚拟机
    本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理
  • 显卡 本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理
  • python版本 本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理
  • torch和torchvision
    本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理

  • ERORR_1:本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理
    原因: 我刚拿到时cuda版本(如图)与PyThorch不兼容本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理
    解决: 升级CUDA(以及driver)的版本
# 禁用现有NVIDIA驱动程序并卸载
sudo systemctl stop nvidia-persistenced
sudo systemctl stop nvidia-fabricmanager
sudo apt-get remove --purge '^nvidia-.*'
# 关闭xserver
systemctl stop gdm.service
# 下载对应的CUDA包
wget https://developer.download.nvidia.com/compute/cuda/11.7.0/local_installers/cuda_11.7.0_515.43.04_linux.run
# 安装(一路默认安装)
sudo sh cuda_11.7.0_515.43.04_linux.run
# 安装完毕后,启动X Server
systemctl start gdm.service
  • ERROR_2:本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理
    谁能想到还是报OutOfMemoryError了呢orz(我说怎么就给我用了呢)
    超出内存一般有几种解决办法

    1. 减少模型的大小: 可以考虑减少模型的大小,例如通过选择更小的模型、减少模型的层数或通道数等方式,来降低内存需求。
    2. 减少批量大小:尝试减少输入数据的批量大小,降低每次前向计算所需的内存。可以尝试减小batch_size参数的值。
    3. 释放不需要的显存:在某些情况下,可能存在一些不需要的显存被占用,可以使用torch.cuda.empty_cache() 来释放不需要的显存。
    4. 启用混合精度训练:可以尝试启用混合精度训练,即使用半精度浮点数 (torch.float16 代替默认的单精度浮点数 (torch.float32。这可以显著降低内存使用,但可能会影响模型的训练效果。
    5. 调整 PyTorch 内存管理设置:可以尝试调整 PyTorch 的内存管理设置,例如通过设置max_split_size_mb 来避免内存碎片化。可以在 PyTorch 的文档中查找有关内存管理和PYTORCH_CUDA_ALLOC_CONF 的详细信息。

    进行如下改动:

    1. 将13B模型替换为7B模型
    2. model_max_length:512–>256;lora_r:8–>4
    3. 训练精度:bf16–>fp16
    4. load_in:8bit–>4bit
    5. 设置max_split_size_mb
      进入batch文件(vim ~/.bashrc
      添加:export PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:32
      esc、:wq、source ~/.bashrc

调整完后,终于是可以运行了
输入:

CUDA_VISIBLE_DEVICES=1 python chat.py --version='./LISA-7B-v1' --precision='fp16' --load_in_4bit

p.s. --version是你下载的模型地址,这里附上我项目目录
本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理还有就是为了控制云服务器我使用的软件有:WinSCP(进行文件传输和代码修改)和PuTTY(命令行控制)

(下面是PuTTY运行截图)
本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理

根据提示输入propmt语句和待分割图片路径:

本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理

分割后的图像存储再了./vis_output文件夹中。

但是结果不正确,可能是调整了模型的缘故吧,没分割出LISA,分割出了ROSÉ

本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理

算了,这个模型就先到这里,等有再好一点的卡再试试,去读paper了。
本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA),项目记录,python,计算机视觉,图像处理,交互,pytorch,自然语言处理文章来源地址https://www.toymoban.com/news/detail-687197.html

到了这里,关于本地部署体验LISA模型(LISA≈图像分割基础模型SAM+多模态大语言模型LLaVA)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Segment Anything论文翻译,SAM模型,SAM论文,SAM论文翻译;一个用于图像分割的新任务、模型和数据集;SA-1B数据集

    论文链接: https://arxiv.org/pdf/2304.02643.pdf https://ai.facebook.com/research/publications/segment-anything/ 代码连接:https://github.com/facebookresearch/segment-anything 论文翻译: http://t.csdn.cn/nnqs8 https://blog.csdn.net/leiduifan6944/article/details/130080159 本文提出Segment Anything (SA)项目:一个用于图像分割的新任务

    2023年04月19日
    浏览(34)
  • SAM语义分割模型开源,AIGC时代,图像抠图工具都被大模型统一了?(下)

    大家好,我是千与千寻,很高兴今天和大家再一次分享我在ChatGPT上的学习经历! 这次是《SAM语义分割模型开源,AIGC时代,图像抠图工具都被大模型统一了?》系列的最终版本了。 在之前的两节中我们介绍了分割一切的 Segment Anything模型,以及分割视频的 Segment-and-Track Anyth

    2024年02月13日
    浏览(30)
  • 使用SAM进行遥感图像语义分割

    Segment Anything Model(SAM)论文 Segment Anything Model(SAM)模型解读及代码复现 Scaling-up Remote Sensing Segmentation Dataset with Segment Anything Model论文 The success of the Segment Anything Model (SAM) demonstrates the significance of data-centric machine learning. However, due to the difficulties and high costs associated with annotating Rem

    2024年02月07日
    浏览(31)
  • 文献速递:文献速递:基于SAM的医学图像分割--SAM-Med3D

    Title  题目 SAM-Med3D 01 文献速递介绍 医学图像分析已成为现代医疗保健不可或缺的基石,辅助诊断、治疗计划和进一步的医学研究]。在这一领域中最重要的挑战之一是精确分割体积医学图像。尽管众多方法在一系列目标上展现了值得称赞的有效性,但现有的分割技术倾向于专

    2024年04月23日
    浏览(27)
  • SAM + YOLOv8 图像分割及对象检测

    SAM(Segment Anything Model)是由 Meta 的研究人员团队创建和训练的深度学习模型。该创新成果发表在 2023 年 4 月 5 日发表的一篇研究论文中,它立即引起了公众的广泛兴趣——相关的 Twitter 帖子迄今为止已累积超过 350 万次浏览: 计算机视觉专业人士现在将注意力转向 SAM——但为

    2024年02月09日
    浏览(23)
  • 【论文阅读】SAM医学图像分割近期工作综述

    How Segment Anything Model (SAM) Boost Medical Image Segmentation? 论文:[2305.03678] How Segment Anything Model (SAM) Boost Medical Image Segmentation? (arxiv.org) 仓库:https://github.com/yichizhang98/sam4mis 摘要: 在这项工作中,我们总结了近期工作中以扩展 SAM 医疗图像分割的任务,包括经验基准和方法的调整,并

    2024年02月11日
    浏览(26)
  • 图像分割之SAM(Segment Anything Model)

    论文:Segment Anything Github:https://github.com/facebookresearch/segment-anything 论文从zero-shot主干网络的基础出发,提出了SAM(Segment Anything Model)模型。该模型有别于传统的分割模型。传统分割模型只能输入原图输出固定的分割结果,SAM在设计上可以同时输入原图和特定提示(点、框、

    2024年02月07日
    浏览(35)
  • 【图像分割】SAM:Segment Anything论文学习V1

    论文:2304.Segment Anything 代码: https://github.com/facebookresearch/segment-anything 官网与demo:https://segment-anything.com/ 【扩展阅读】——分割一切模型(SAM)的全面调研:2305.A Comprehensive Survey on Segment Anything Model for Vision and Beyond 【 应用 】在stable-diffusion-webui中使用的插件:https://github.com/co

    2024年02月07日
    浏览(37)
  • Segment Anything Model (SAM)——分割一切,具有预测提示输入的图像分割实践

    不得不说,最近的AI技术圈很火热,前面的风头大都是chatGPT的,自从前提Meta发布了可以分割一切的CV大模型之后,CV圈也热起来了,昨天只是初步了解了一下SAM,然后写了一篇基础介绍说明的博客,早上一大早起来已经有2k左右的阅读量了。  我果断跑去官方项目地址看下:

    2023年04月19日
    浏览(48)
  • [医学分割大模型系列] (3) SAM-Med3D 分割大模型详解

    论文地址:SAM-Med3D 开源地址:https://github.com/uni-medical/SAM-Med3D 发表日期:2023年10月 参考资料: 王皓宇(上海交通大学)SAM-Med3D基于SAM构建3D医学影像通用分割模型 SAM-Med3D:三维医学图像上的通用分割模型,医疗版三维 SAM 开源了! SAM-Med3D (SJTU 2024) 通用分割能力:在各种3D目

    2024年04月25日
    浏览(21)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包