Apple官方优化Stable Diffusion绘画教程

这篇具有很好参考价值的文章主要介绍了Apple官方优化Stable Diffusion绘画教程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Apple官方优化Stable Diffusion绘画教程

苹果为M1芯片优化Stable Diffusion模型,其中Mac Studio (M1 Ultra, 64-core GPU)生成512*512的图像时间为9秒。想要1秒出图,可以在线体验3090显卡AI绘画。

AI绘图在线体验

二次元绘图

在线体验地址:Stable Diffusion

huggingface-cli,stable diffusion

中文输入绘图

在线体验地址:Stable Diffusion

huggingface-cli,stable diffusion

CoreML Stable Diffusion

苹果官方发布Python 包,用于使用 diffusers 和 coremltools 将 Stable Diffusion 模型从 PyTorch 转换到 Core ML,以及一个 Swift 包来部署模型。请访问 Core ML Stable Diffusion 代码存储库以启动,并获取关于基准测试和部署的详细说明。

项目地址

huggingface-cli,stable diffusion

使用 Core ML 在 Apple Silicon 上运行stable-diffusion

huggingface-cli,stable diffusion

该存储库包括:

  • python_coreml_stable_diffusion,一个 Python 包,用于将 PyTorch 模型转换为 Core ML 格式并在 Python 中使用 Hugging Facestable-diffusion图像生成

  • StableDiffusion,一个 Swift 包,开发人员可以将其作为依赖项添加到他们的 Xcode 项目中,以在他们的应用程序中部署图像生成功能。Swift 包依赖于由生成的 Core ML 模型文件python_coreml_stable_diffusion

如果您在安装或运行时遇到问题,请参阅常见问题解答部分。

将模型转换为 Core ML

第一步:创建Python环境并安装依赖:

conda create -n coreml_stable_diffusion python=3.8 -yconda activate coreml_stable_diffusioncd /path/to/cloned/ml-stable-diffusion/repositorypip install -e .

第 2 步:登录或注册您的Hugging Face 帐户,生成用户访问令牌huggingface-cli login并使用此令牌通过在终端窗口中运行来设置 Hugging Face API 访问。

第 3 步:导航至您想在Hugging Face Hub上使用的 Stable Diffusion 版本并接受其使用条款。默认模型版本为CompVis/stable-diffusion-v1-4。用户可以按照下一步中的描述更改模型版本。

第 4 步:从终端执行以下命令以生成 Core ML 模型文件 ( .mlpackage)

  • ounter(line
python -m python_coreml_stable_diffusion.torch2coreml --convert-unet --convert-text-encoder --convert-vae-decoder --convert-safety-checker -o <output-mlpackages-directory>

警告:此命令将从 Hugging Face 下载数 GB 的 PyTorch 检查点。

在 M1 MacBook Pro 上,这通常需要 15-20 分钟。成功执行后,构成 Stable Diffusion 的 4 个神经网络模型将从 PyTorch 转换为 Core ML ( .mlpackage) 并保存到指定的<output-mlpackages-directory>. 一些额外的值得注意的论点:

  • --model-version: 模型版本默认为CompVis/stable-diffusion-v1-4。开发人员可以指定Hugging Face Hub上可用的其他版本,例如stabilityai/stable-diffusion-2-base & runwayml/stable-diffusion-v1-5。

  • --bundle-resources-for-swift-cli:编译所有 4 个模型并将它们与用于文本标记化的必要资源捆绑在一起,这些资源<output-mlpackages-directory>/Resources应作为输入提供给 Swift 包。对于基于扩散器的 Python 管道,此标志不是必需的。

  • --chunk-unet:将 Unet 模型分成两个大致相等的块(每个块的权重小于 1GB)以进行移动友好部署。这是在 iOS 和 iPadOS 上部署 ANE所必需的。这不是 macOS 所必需的。Swift CLI 能够使用 Unet 模型的分块版本和常规版本,但优先考虑前者。请注意,chunked unet 与 Python 管道不兼容,因为 Python 管道仅适用于 macOS。分块仅适用于使用 Swift 的设备上部署。

  • --attention-implementation:默认为在 Apple Neural Engine 上部署 Transformers 中SPLIT_EINSUM描述的实现。将切换到应该用于非 ANE 部署的替代方案。请参阅性能基准部分以获得进一步的指导。--attention-implementation ORIGINAL

  • --check-output-correctness:将原始 PyTorch 模型的输出与最终 Core ML 模型的输出进行比较。此标志会显着增加 RAM 消耗,因此建议仅用于调试目的。

使用 Python 生成图像

使用基于stable_diffusion的示例 Python 管道运行文本到图像生成:

  • ounter(line
python -m python_coreml_stable_diffusion.pipeline --prompt "a photo of an astronaut riding a horse on mars" -i <output-mlpackages-directory> -o </path/to/output/image> --compute-unit ALL --seed 93

有关所有可用参数,请参阅帮助菜单:python -m python_coreml_stable_diffusion.pipeline -h。一些值得注意的论点:

  • -i:应该指向上面"将模型转换为 Core ML "部分的-o第 4 步中的目录。

  • --model-version:如果您在将模型转换为 Core ML 时覆盖默认模型版本,则需要在此处指定相同的模型版本。

  • --compute-unit:请注意,此特定实现的最高性能计算单元可能因不同的硬件而异。CPU_AND_GPU或者CPU_AND_NE可能比ALL. 请参阅性能基准部分以获得进一步的指导。

  • --scheduler: 如果你想尝试不同的调度器,你可以在这里指定。有关可用选项,请参阅帮助菜单。您还可以指定自定义推理步骤数--num-inference-steps,默认为 50。

使用 Swift 生成图像

系统要求

构建 Swift 项目需要:

  • macOS 13 或更新版本

  • 安装了命令行工具的 Xcode 14.1 或更高版本。请检查developer.apple.com以获取最新版本。

  • 核心 ML 模型和标记化资源。请参阅上面--bundle-resources-for-swift-cli的将模型转换为 Core ML部分

如果将此模型部署到:

  • 苹果手机
    • iOS 16.2 或更新版本

    • iPhone 12 或更新版本

  • iPad
    • iPadOS 16.2 或更新版本

    • M1 或更新版本

  • 苹果电脑
    • macOS 13.1 或更新版本

    • M1 或更新版本

CLI 用法示例

swift run StableDiffusionSample "a photo of an astronaut riding a horse on mars" --resource-path <output-mlpackages-directory>/Resources/ --seed 93 --output-path </path/to/output/image>

输出将根据提示和随机种子命名:例如</path/to/output/image>/a_photo_of_an_astronaut_riding_a_horse_on_mars.93.final.png

请使用--helpflag 了解批处理生成等。

库使用示例

import StableDiffusion...let pipeline = try StableDiffusionPipeline(resourcesAt: resourceURL)let image = try pipeline.generateImages(prompt: prompt, seed: seed).first

Swift包详情

这个 Swift 包包含两个产品:

  • StableDiffusionLib

  • StableDiffusionSample命令行工具

这两种产品都需要提供 Core ML 模型和标记化资源。通过目录路径指定资源时,该目录必须包含以下内容:

  • TextEncoder.mlmodelc(文本嵌入模型)

  • Unet.mlmodelcUnetChunk1.mlmodelcUnetChunk2.mlmodelc(去噪自动编码器模型)

  • VAEDecoder.mlmodelc(图像解码器模型)

  • vocab.json(分词器词汇文件)

  • merges.text(合并字节对编码文件)

可选地,它还可以包括安全检查器模型,某些版本的 Stable Diffusion 包括:

  • SafetyChecker.mlmodelc

请注意,首先检查 Unet 的分块版本。只有当它不存在时才会Unet.mlmodelc加载完整的。iOS 和 iPadOS 需要分块,而 macOS 则不需要。文章来源地址https://www.toymoban.com/news/detail-541822.html

到了这里,关于Apple官方优化Stable Diffusion绘画教程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 【Stable Diffusion XL】huggingface diffusers 官方教程解读

    【Stable Diffusion XL】huggingface diffusers 官方教程解读

    相关链接: GitHub: https://github.com/huggingface/diffusers 官方教程:https://huggingface.co/docs/diffusers/tutorials/tutorial_overview StableDiffuson: https://huggingface.co/blog/stable_diffusion#how-does-stable-diffusion-work Diffusers被设计成一个用户友好和灵活的工具箱,用于构建适合您用例的扩散系统。工具箱的核

    2024年02月06日
    浏览(13)
  • Stable Diffusion AI绘画商业应用教程

    Stable Diffusion AI绘画商业应用教程

       BIGD Stable Diffusion商业化,AI绘画入门到精通,主要分为创意内容运营设计、品牌策划与视觉传达、三维视觉视效、电商活动节日宣传等。    Stable Diffusion 是⼀种基于扩散过程的图像生成模型,可以生成高质量、高分辨率的图像,该文章将带你了解并掌握stable diffusion的

    2024年04月09日
    浏览(15)
  • Stable Diffusion 绘画入门教程(webui)

    Stable Diffusion 绘画入门教程(webui)

    随着mj和sd绘画软件发布之后,AI绘画开始爆火,很多小伙伴已经挖掘出很多的玩法,哪怕最基础的AI美女、AI壁纸、真人漫改等等都赚的盆满钵满,当然现在入局也不算晚,不同的行业基础依然能开发出很多有趣的玩法。 随着使用的深入,各路大神挖掘出更多的玩法,比如创

    2024年02月21日
    浏览(7)
  • 深度学习关于stable diffusion官方模型下载,并附上:Stable Diffusion下载+安装+使用教程,保证你能学会!

    下载地址: 自用备份,有需要的人请拿去,不客气!! 1.4版本下载: CompVis/stable-diffusion-v-1-4-original · Hugging Face 1.5版本下载: runwayml/stable-diffusion-v1-5 at main sdxl-0.9.0版本下载 https://huggingface.co/stabilityai/stable-diffusion-xl-base-0.9 sdxl-1.0版本下载: https://huggingface.co/stabilityai/stable-

    2024年01月18日
    浏览(10)
  • 【AI绘画】Midjourney和Stable Diffusion教程

    【AI绘画】Midjourney和Stable Diffusion教程

    之前我向大家介绍了这两个AI绘画网站: Stable Diffusion介绍: https://mp.csdn.net/mp_blog/creation/editor/130059509 Midjourney介绍: https://mp.csdn.net/mp_blog/creation/editor/130003233 这里是新星计划本周最后一篇,主要讲的是 Midjourney​​​​ ​​​和 Stable Diffusion​​​​​​​ 这两个AI绘画网站的

    2024年02月11日
    浏览(8)
  • AI绘画stable diffusion webui汉化教程

    AI绘画stable diffusion webui汉化教程

    AI绘画stable diffusion webui汉化教程 目录 前言 一、stable diffusion webui下载地址 二、中文插件 1.安装插件 ​2.设置插件 AI绘画stable diffusion webui默认页面是英文的,那如何设置中文插件呢? GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI github地址:https://github.com/AUTOMATIC1111/

    2024年02月09日
    浏览(10)
  • Stable Diffusion教程(7) - PS安装AI绘画插件教程

    Stable Diffusion教程(7) - PS安装AI绘画插件教程

    配套教程视频:https://v.douyin.com/Uyux9F6/ 安装了stable diffusion 还没安装的从知识库安装 阿超的AI绘画知识库 · 语雀 安装了ps2023 还没安装的从网盘下载Win版 PS 2023【必须win10、11】.rar官方版下载丨最新版下载丨绿色版下载丨APP下载-123云盘 https://github.com/AbdullahAlfaraj/Auto-Photoshop-St

    2024年02月14日
    浏览(38)
  • stable-diffusion-webui教程(AI绘画真人教程)

    stable-diffusion-webui教程(AI绘画真人教程)

    首先给大家看看效果,这个就是新一代的AI绘画的造物,是不是很漂亮,AI自定义老婆从此不再是梦了。 下面就给大家演示一下,这个软件如何部署,和部署完成之后如何获取相关的,和模型,然后大家也可以自己做出来自己喜欢的AI老婆。 这里是别的大佬的项目的地

    2024年02月02日
    浏览(9)
  • AI绘画小白福音!Stable Diffusion 保姆级教程

    AI绘画小白福音!Stable Diffusion 保姆级教程

    安装好了模型,我们来进行 AI 绘画的文生图实战。 模型安装后之后,就可以开始激动人心的 AI 文生图了,下面我们以文生图为例,一边操作一边讲解提示词的语法和分类,以及出图参数的作用和使用方法。 在开始之前,我们再来回顾一下,我们的需求是让 AI 生成我们所要

    2024年04月14日
    浏览(17)
  • 免费搭建个人stable-diffusion绘画(干货教程)

    免费搭建个人stable-diffusion绘画(干货教程)

    目前AI绘画主流的模型有Midjourney、Stable Diffusion、DALL·E,最火的当属Midjorney和Stable Diffusion,但是由于Midjourney没有开源且要付费,我今天主要分享Stable Diffusion的部署和使用方法的分享。 大家应该面对的一个不可避免的问题,就是本身电脑的局限性,比如显卡,比如GPU,比如磁盘

    2024年02月09日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包