使用OpenVINO™在算力魔方上加速stable diffusion模型

这篇具有很好参考价值的文章主要介绍了使用OpenVINO™在算力魔方上加速stable diffusion模型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

作者:武卓博士 英特尔AI布道师
           刘力        英特尔物联网行业创新大使

什么是stable diffusion模型?

Stable Diffusion是stability.ai开源的AI图像生成模型,实现输入文字,生成图像的功能。Stable Diffusion将AI图像生成提升到了全新高度,将引发媒体创作领域的革命。

使用OpenVINO™在算力魔方上加速stable diffusion模型

引用自:https://github.com/Stability-AI/StableDiffusion

什么是算力魔方?

算力魔方一款可以DIY的迷你主机,采用了抽屉式设计,后续组装、升级、维护只需要拔插模块。通过选择计算模块的版本,再搭配不同额IO模块可以组成丰富的配置,适应不同场景。性能不够时,可以升级计算模块提升算力,IO接口不匹配时,可以更换IO模块调整功能,而无需重构整个系统

使用OpenVINO™在算力魔方上加速stable diffusion模型

基于OpenVINO在算力魔方上实现Stable Diffusion模型的推理加速,获得了14.9出图(不含模型初始化)的性能。

使用OpenVINO™在算力魔方上加速stable diffusion模型

在图像生成过程中:CPU占用16%,内存占用7.5GB,GPU占用100%,显存利用率98.5%。

使用OpenVINO™在算力魔方上加速stable diffusion模型

测试代码如下所示,方便读者在算力魔方上复现:openvino_notebooks/notebooks/225-stable-diffusion-text-to-image at main · openvinotoolkit/openvino_notebooks · GitHub

那么接下来,我们就为大家划划重点,一起来看看有哪些重要的步骤、以及生成的画作效果如何吧。在这个代码示例中,我们采用了Stable Diffusion模型,将模型转换为 OpenVINO 中间表示 (IR) 格式,以便它在英特尔® GPU 上获得高效运行。另外,通过将 FP32 模型压缩到 FP16,我们将模型大小减少了一半(接近一半),而且运行所需的 RAM/VRAM 现在也少了很多。最重要的是,由于加入了英特尔® Xe 矩阵扩展(XMX),GPU 处理速度也获得了显著提升。

以下是我运行这个 Notebook 得到的一些结果,非常有趣。借助英特尔锐炫™ A380独立显卡,我可以实现大约每秒 6.0 次的迭代(未使用调试模式)。这意味着生成一幅下面的高质量图像通常只需不到 10 秒钟。

使用OpenVINO™在算力魔方上加速stable diffusion模型

图1在基于 OpenVINO Notebooks 和算力魔方(英特尔锐炫™ A380)的平台上,通过“Stable Diffusion”模型文本转图像功能生成的结果。

看完了以上的AI作画的结果,你有没有心动、想自己动手试试呢?接下来,我们来看看你需要哪些主要步骤,就能在自己的机器上运行我们这个Stable Diffusion的notebook代码示例了。

首先,这是 OpenVINO Notebooks的仓库。它具有您今天完成演示所需要的一切。

openvino_notebooks/notebooks at main · openvinotoolkit/openvino_notebooks

Stable Diffusion位于 225-stable-diffusion-text-to-image 文件夹下

在notebook代码示例 中,我们不仅介绍了著名的文本转图像管道,还加入了图像转图像生成管道。但它的真正意义是什么?我们如何运行它?

使用OpenVINO™在算力魔方上加速stable diffusion模型

管道

如何安装

如需安装 OpenVINO Notebooks,您可参照此处的说明(适用于 Windows):Windows · openvinotoolkit/openvino_notebooks Wiki · GitHub

如果您是 Linux 用户,可点击此链接:Ubuntu · openvinotoolkit/openvino_notebooks Wiki · GitHub

总体而言,您可实施以下几步:

安装 Python 3.10.x(或下方内容)并创建一个虚拟环境

python3 -m venv openvino_env
source openvino_env/bin/activate #for linux

对目录实施 Git 克隆

git clone --depth=1 https://github.com/openvinotoolkit/openvino_notebooks.git
cd openvino_notebooks

安装所有的库和依赖项

pip install -r requirements.txt

运行 Jupyter Notebook

jupyter lab notebooks

使用OpenVINO™在算力魔方上加速stable diffusion模型

运行所有单元格并等待 =)

现在,查看代码。我们切实地优化 PyTorch 管道,并使用 OpenVINO 执行代码。

使用OpenVINO™在算力魔方上加速stable diffusion模型

首次下载和转换可能需要一点时间。完成之后,您将得到一组 IR 文件。为了方便,我已在这里将这些预训练的优化模型更新到 huggingfacehttps://huggingface.co/bes-dev/stable-diffusion-v1-4-openvino),大家可以直接下载使用

使用OpenVINO™在算力魔方上加速stable diffusion模型

现在,如果您有幸使用英特尔锐炫™独立显卡,您便可将下图中设备名称的代码改为“GPU”。默认情况下,它使用“ AUTO”,并会自动切换至检测到的 GPU

使用OpenVINO™在算力魔方上加速stable diffusion模型

让它在 GPU 上运行

使用OpenVINO™在算力魔方上加速stable diffusion模型

自动插件。它先使用 CPU,然后自动切换至 GPU。

结论

算力魔方是一款小巧而强大的计算设备,它们外形小巧、功耗低、接口丰富、可拓展性高,广泛用于教育、医疗保健、机器人、自动化和物联网等行业。

通过将算力魔方与OpenVINO相结合,可以实现各种复杂AI应用,包括加速AI模型的推理计算,实时图像和视频处理以及设备之间的低延迟通信等。

在算力魔方上评估OpenVINO的AI加速效果,OpenVINO Notebooks 无疑是首选。欢迎在算力魔方上下载并安装OpenVINO Notebooks! 祝您编码快乐。https://github.com/openvinotoolkit/openvino_notebooks文章来源地址https://www.toymoban.com/news/detail-505322.html

到了这里,关于使用OpenVINO™在算力魔方上加速stable diffusion模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • stable-diffusion-webui AutoDL 算力平台后台启动命令

    AutoDL官网:AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL AutoDL 算力平台后台启动命令 备注: COMMANDLINE_ARGS=\\\"--share --gradio-debug --port 6006\\\"    要改成 COMMANDLINE_ARGS=\\\"--listen --port 6006\\\"  不然服务启动的是临时会话,72小时后服务可能会过期! 常见问题: 问题1: ValueError: When loc

    2024年02月15日
    浏览(65)
  • 【Stable Diffusion/NovelAI Diffusion的AMD GPU加速推理探索】

    测试机子配置: 1:AMD RX6600(显存8g)+i5 12600KF 16g内存 (台式机) 2:RTX 3070 laptop(显存8g)+i7 10870H 32g内存 (HP暗夜精灵笔记本) 两台电脑平均性能差不多,当然N卡肯定更好一点 这边我们还是MS大发好,用MS的DirectML推理框架推理,虽然据小道消息反馈DML推理效率远不如Cuda,但是要知道

    2024年02月01日
    浏览(40)
  • diffusers加速文生图速度;stable-diffusion、PixArt-α模型

    参考: https://pytorch.org/blog/accelerating-generative-ai-3/ https://colab.research.google.com/drive/1jZ5UZXk7tcpTfVwnX33dDuefNMcnW9ME?usp=sharing#scrollTo=jueYhY5YMe22 大概GPU资源8G-16G;另外模型资源下载慢可以在国内镜像:https://aifasthub.com/ 1、加速代码 能加速到2秒左右

    2024年04月23日
    浏览(73)
  • 秒速出图!体验 TensorRT 加速 Stable Diffusion 图像创作

    生成式 AI 图像内容生成技术近年来发展迅速,可以根据人类语言描述生成图片,在时尚、建筑、动漫、广告、游戏等领域有着广泛应用。 Stable Diffusion WebUI 是 Github 上最为热门的利用生成式 AI 进行图像生成的项目。它采用 ClipText 对文字进行编码,然后采用 UNet+Scheduler 在潜在

    2024年02月20日
    浏览(87)
  • 在英特尔 CPU 上加速 Stable Diffusion 推理

    前一段时间,我们向大家介绍了最新一代的 英特尔至强 CPU (代号 Sapphire Rapids),包括其用于加速深度学习的新硬件特性,以及如何使用它们来加速自然语言 transformer 模型的 分布式微调 和 推理。 英特尔至强处理器: https://www.intel.com/content/www/us/en/products/details/processors/xeon/scal

    2024年02月09日
    浏览(57)
  • (含代码)利用NVIDIA Triton加速Stable Diffusion XL推理速度

    扩散模型正在改变跨行业的创意工作流程。 这些模型通过去噪扩散技术迭代地将随机噪声塑造成人工智能生成的艺术,从而基于简单的文本或图像输入生成令人惊叹的图像。 这可以应用于许多企业用例,例如创建个性化营销内容、为照片中的对象生成富有想象力的背景、设

    2024年04月11日
    浏览(33)
  • Stable-diffusion支持Inter和AMD显卡加速出图的操作方法

       英伟达的显卡有CUDA加持Stable diffusion出图很快,但我无奈家徒四壁,只有AMD老显卡苦苦支撑着本不富裕的家庭,但是生活还是继续不是。来吧!兄弟,看看老显卡能不能加速出图就完事了。    说明,我在MacOs上操作成功,同时我也加了windows上操作步骤 目录 第一步,安装

    2024年02月08日
    浏览(99)
  • Stable-diffusion支持Intel和AMD显卡加速出图的操作方法

       英伟达的显卡有CUDA加持Stable diffusion出图很快,但我无奈家徒四壁,只有AMD老显卡苦苦支撑着本不富裕的家庭,但是生活还是继续不是。来吧!兄弟,看看老显卡能不能加速出图就完事了。    说明,我在MacOs上操作成功,同时我也加了windows上操作步骤 目录 第一步,安装

    2024年02月13日
    浏览(53)
  • 利用GPU加速自定义风格图像生成-利用GPU加速结合了ControlNet/ Lora的Stable Diffusion XL

    点击链接完成注册,参加本次在线研讨会 https://www.nvidia.cn/webinars/sessions/?session_id=240124-31319 随着AI技术的发展, 数字内容创建业务也变得越来越火热。生成式AI模型的发布, 让我们看到了人工智能在各行各业的潜力。您只需要用语言简单描述自己希望看到的画面, AI便可以自动生

    2024年01月24日
    浏览(43)
  • Stable Diffusion在各种显卡上的加速方式测试,最高可以提速211.2%

    Stable Diffusion是一种基于扩散模型的图像生成技术,能够从文本生成高质量的图像,适用于CG,插图和高分辨率壁纸等领域。 但是它计算过程复杂,使得它的生成速度较慢。所以研究人员就创造了各种提高其速度的方式,比如Xformers、Aitemplate、TensorRT和onflow。在本文中我们将对

    2024年02月16日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包