使用Optimum-Intel OpenVINO™轻松文生图——几行代码加速Stable Diffusion

这篇具有很好参考价值的文章主要介绍了使用Optimum-Intel OpenVINO™轻松文生图——几行代码加速Stable Diffusion。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

作者:武卓博士 英特尔AI布道师

随着AIGC模型越来越强大,并取得了更惊人的结果,任意运行AIGC模型, 比如Stable Diffusion,对于开发人员来说仍然面临一些挑战。首先,GPU的安装设置需要我们处理复杂的配置和兼容性问题,这可能既耗时又令人沮丧。此外,如果运行Stable Diffusion代码前需要经过复杂的软件安装和环境配置步骤,这也会带来额外的困难。因为开发者们经常被干净直观的API所吸引,这使我们能够轻松地与模型交互并简化我们的工作流程。最后,在没有复杂代码编写以及编译的情况下,如何快速完成硬件加速仍然是一个开发者们优先关心的事项,因为开发者们总是寻求高效而直接的解决方案来充分利用AIGC算法的潜力。

使用Optimum-Intel OpenVINO™轻松文生图——几行代码加速Stable Diffusion,开发者分享,OpenVINO,openvino,人工智能

图1. 我们需要更改的代码行数以获得英特尔的硬件加速

 在这篇文章中,我们将探索使用Optimum Intel(OpenVINO)在Stable Diffusion V2.1上实现AI硬件加速的最快方法(使用最少的代码行和依赖项安装)。我们还将指导您完成在本地机器上运行Stable Diffusion的安装和使用过程,并通过OpenVINO 2023.0版本进行优化和加速。只需几行Python代码,您就可以在几秒钟内生成带有文本的图像。此外,OpenVINO简化了在不同硬件平台(包括Intel Desktop CPU、iGPU、dGPU和Xeon CPU)上加速工作的过程,使您的工作在部署时更加灵活。有关该方法的更多详细信息,请点击此处查看我们在GitHub上的OpenVINO Notebook代码示例。

1.安装

使用如下一行代码安装Optimum-Intel[OpenVINO]:

pip install -q "optimum-intel[openvino,diffusers]"@git+https://github.com/huggingface/optimum-intel.git

2.下载预转换过的Stable Diffusion 2.1 IR模型

Stable Diffusion将6个元素结合在一起,一个带有标记器的文本编码器模型,一个带调度器的UNet模型,以及一个带有解码器和编码器模型的自动编码器。

使用Optimum-Intel OpenVINO™轻松文生图——几行代码加速Stable Diffusion,开发者分享,OpenVINO,openvino,人工智能

这里使用的基础模型是"stabilityai/stable-diffusion-2-1-base"。该模型被转换为OpenVINO格式,用于使用Optimum Intel[OpenVINO]在CPU或Intel GPU上加速推理。模型权重以FP16精度存储,这将模型的大小减少了一半。你可以发现这个Notebook中使用的模型名称是"helenai/stabilityai-stable-diffusion-2-1-base-ov"。让我们下载带有以下代码的预转换模型Srable Diffusion 2.1Intermediate Representation Format (IR)  

from optimum.intel.openvino import OVStableDiffusionPipeline
# download the pre-converted SD v2.1 model from Helena's HF repo
name = "helenai/stabilityai-stable-diffusion-2-1-base-ov"

pipe = OVStableDiffusionPipeline.from_pretrained(name, compile=False)
pipe.reshape(batch_size=1, height=512, width=512, num_images_per_prompt=1)

 3. 保存预先训练好的模型,选择推理设备并编译

我们已经下载了预先训练和转换的IR格式Stable Diffusion模型。让我们保存模型,并使用以下代码编译它进行AI推理.

pipe.save_pretrained("./openvino_ir")
pipe.to("GPU.1")
pipe.compile()

4. 发挥你的创意,输入文本,享受生成的美图吧

现在是时候发挥创意了!输入创意提示,并使用以下内容欣赏生成的图像

# Generate an image. 
prompt = "red car in snowy forest, epic vista, beautiful landscape, 4k, 8k"
output = pipe(prompt, num_inference_steps=17, output_type="pil").images[0]
output.save("image.png")
output

以下动图展示了图片生成的各步骤的效果。

使用Optimum-Intel OpenVINO™轻松文生图——几行代码加速Stable Diffusion,开发者分享,OpenVINO,openvino,人工智能

 文章来源地址https://www.toymoban.com/news/detail-719393.html

更多的资源信息:

OpenVINO™ 2023.0 新版本介绍(麻烦附上新版本介绍链接)

OpenVINO™ Notebooks

在英特尔DevCloud for the Edge 运行

使用Optimum-Intel OpenVINO™轻松文生图——几行代码加速Stable Diffusion,开发者分享,OpenVINO,openvino,人工智能

欢迎在这里反馈结果以及开启讨论

致谢

感谢Helena Kloosterman 提供宝贵的指导意见。

 

到了这里,关于使用Optimum-Intel OpenVINO™轻松文生图——几行代码加速Stable Diffusion的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 精华整理几十个Python数据科学、机器学习、深度学习、神经网络、人工智能方面的核心库以及详细使用实战案例,轻松几行代码训练自己的专有人工智能模型

    精华整理几十个Python数据科学、机器学习、深度学习、神经网络、人工智能方面的核心库以及详细使用实战案例,轻松几行代码训练自己的专有人工智能模型。 机器学习 人工智能的核心,是使计算机具有智能的根本途径。机器学习专注于算法,允许机器学习而不需要编程,

    2024年01月25日
    浏览(54)
  • 几行代码,轻松教你用Java 将 Word 文档转换为 HTML

    Aspose.Words 是一种高级Word文档处理API,用于执行各种文档管理和操作任务。API支持生成,修改,转换,呈现和打印文档,而无需在跨平台应用程序中直接使用Microsoft Word。此外, Aspose API支持流行文件格式处理,并允许将各类文档导出或转换为固定布局文件格式和最常用的图像

    2024年02月10日
    浏览(41)
  • 几行代码教你轻松完成超大模型推理:LLaMA-30B+TITAN RTX*4+accelerate

    是不是苦于没有ChatGPT的API key或者免费的token而无法愉快地和它玩耍?想不想在有限的计算资源上部署大模型并调戏大模型??想不想解锁大模型的除了对话之外的其它功能???几行代码教你搞定如何在有限的计算资源下部署超大模型并实现推理。 超大语言模型 。OPT,GPT,

    2024年02月13日
    浏览(28)
  • 以AI作画,祝她节日快乐;简单三步,OpenVINO™ 助你轻松体验AIGC

    近期,ChatGPT的爆火,引起了大众对于AIGC(AI Generate Content AI生成内容)的广泛关注。作为技术领域的又一热点话题——AIGC距离大众使用似乎还存在一定距离? 等风来不如追风去。随着第113个“三·八”国际妇女节于春日中悄然来临,OpenVINO™ 特推出“以AI作画,祝她节日快乐

    2024年02月08日
    浏览(30)
  • AIGC专栏10——EasyAnimate 一个新的类SORA文生视频模型 轻松文生视频

    在过年期间,OpenAI放出了SORA文生视频的预览效果,一瞬间各大媒体争相报道,又引爆了一次科技圈,可惜的是,SORA依然没选择开源。 在这个契机下,本来我也对文生视频的工作非常感兴趣,所以也研究了一些与SORA相关的技术,虽然我们没有像OpenAI那么大的算力,但做一些基

    2024年04月17日
    浏览(29)
  • Py之optimum:optimum的简介、安装、使用方法之详细攻略

    Py之optimum:optimum的简介、安装、使用方法之详细攻略 目录 optimum的简介 1、加速推理  Optimum 提供多种工具,用于在不同生态系统上导出和运行优化模型: 2、功能概述 optimum的安装 1、如果您想使用  Optimum 的加速器特定功能,您可以根据下表安装所需的依赖项: 2、从源代码

    2024年02月06日
    浏览(40)
  • NLP(六十八)使用Optimum进行模型量化

      本文将会介绍如何使用HuggingFace的 Optimum ,来对微调后的BERT模型进行量化(Quantization)。   在文章NLP(六十七)BERT模型训练后动态量化(PTDQ)中,我们使用PyTorch自带的PTDQ(Post Training Dynamic Quantization)量化策略对微调后的BERT模型进行量化,取得了模型推理性能的提升

    2024年02月09日
    浏览(42)
  • 什么是OpenVino?以及如何使用OpenVino运行yolo

    目录 Openvino简介 如何使用它? 构建源代码 Openvino IR模型 第一个Openvino示例 C语言示例 C++示例 使用OpenVino跑Yolo模型 Openvino 是由 Intel 开发的专门用于优化和部署人工智能推理的半开源的工具包,主要用于对深度 推理做优化 。 Openvino内部集成了 Opencv 、 TensorFlow 模块,除此之外

    2023年04月26日
    浏览(48)
  • 【OpenVINO】 使用 OpenVINO CSharp API 部署 PaddleOCR 项目介绍

    前言:   在之前的项目中,我们已经使用 OpenVINO TM CSharp API 部署 PaddleOCR 全系列模型,但随着PaddleOCRv4版本发布以及OpenVINO CSharp API版本迭代,上一版本的项目已经不再适用。因此在推出的最新项目中,已经完成了对PaddleOCRv4的匹配,并且采用了最新版本的 OpenVINO TM CSharp API,

    2024年02月03日
    浏览(33)
  • 【OpenVINO™】在 MacOS 上使用 OpenVINO™ C# API 部署 Yolov5

    在 MacOS 上使用 OpenVINO™ C# API 部署 Yolov5 项目介绍 YOLOv5 是革命性的 \\\"单阶段\\\"对象检测模型的第五次迭代,旨在实时提供高速、高精度的结果,是世界上最受欢迎的视觉人工智能模型,代表了Ultralytics对未来视觉人工智能方法的开源研究,融合了数千小时研发中积累的经验教训

    2024年02月19日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包