M1芯片Mac book pro部署stable diffusion模型

这篇具有很好参考价值的文章主要介绍了M1芯片Mac book pro部署stable diffusion模型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

使用的电脑配置:

本文中,我的实验环境是 Apple M1CPU 的 MacBook Pro,机器内存容量为 16GB。同样还能够运行本文的设备包含:

  • 2022 年生产的MacBook Air (M2)、13寸的 MacBook Pro (M2)、Mac Studio (2022)
  • 2021 年生产的 14寸和16寸的 MacBook Pro、24寸的 iMac (M1)
  • 2020 年生产的 Mac mini (M1)、MacBook Air (M1)、13寸的 MacBook Pro (M1)
  • 当然,还有搭载了 M1 芯片的第五代 iPad Pro

第一步 基础环境准备

想要在 ARM 芯片的 Mac 设备上运行这个模型应用,我们需要做几件事:

  • 准备 Python 基础运行环境
  • 准备软件运行所需要的软件包

首先需要安装anoconda,可以使用conda来简化安装,具体方法参考如下链接用让新海诚本人惊讶的 AI 模型制作属于你的动漫视频 - 苏洋博客

# 先进行 conda 的安装
bash Anaconda3-2022.05.(你的安装文件名称).sh 

执行完成后可以通过conda info指令来检查anaconda是否安装成功

M1芯片Mac book pro部署stable diffusion模型,AI作画,stable diffusion

接下来,我们来通过 conda 命令,来快速创建我们所需要的模型应用程序所需要的运行环境

conda create -n corem1_stable_diffusion python=3.8 -y

执行上述命令后会得到如下的结果:

M1芯片Mac book pro部署stable diffusion模型,AI作画,stable diffusion

 注意我们在这里创建的环境叫做coreml_stable_diffusion所以会在anaconda子级下创建相应的文件夹

M1芯片Mac book pro部署stable diffusion模型,AI作画,stable diffusion

 直到提示完成。下一步激活我们创建的环境。执行如下命令:

conda activate coreml_stable_diffusion

M1芯片Mac book pro部署stable diffusion模型,AI作画,stable diffusion

 首次执行会弹出一堆信息,不用管。当命令执行完毕之后,我们会看到终端前的展示字符串会出现变化,带上了我们创建的环境名,这就表示我们的环境已激活了。

****另如果你经常在 MacOS 上折腾 “Huggingface” 等项目,尤其是运行相对新一些的模型项目,大概率会遇到 “Failed building wheel for tokenizers”这个问题。可以参考如下文章解决。在搭载 M1 及 M2 芯片 MacBook设备上玩 Stable Diffusion 模型 - 苏洋博客

第二步 完成 Stable Diffusion 项目的初始化

我们可以通过 git clone 命令,或者直接下载包含代码的压缩包,来获得项目的代码:

git clone https://github.com/apple/ml-stable-diffusion.git

如果没有下载git,需要先执行安装命令 git lfs install。 Git LFS(Large File Storage,大型文件存储)是一个相对于GitHub高级开发者非常重要的东西。当一个项目的最大文件超过128MB,那么Git就会报错。这时候,就要请出我们的Git LFS了。

如果不想下载也可参考pip install git(pip直接安装git上的项目)_吨吨不打野的博客-CSDN博客直接通过pip下载git上的项目。

待下载完成后,cd到相应项目文件目录下,再下载所需文件。

cd ml-stable-diffusion
pip install -r requirements.txt

至此,基础环境准备工作就都就绪了。

第三步 转换和运行模型应用

基础环境就绪之后,我们需要转换 Huggingface 上的 PyTorch / TF 开放模型到 Apple Core ML 模型格式。

转换 PyTorch 模型为 Apple Core ML 模型

项目仓库中 python_coreml_stable_diffusion/torch2coreml.py 文件中,封装了调用 coremltools.models.MLModel 工具方法来转换其他格式模型到 Core ML 模型的逻辑如下:

coreml_model = coremltools.models.MLModel(...)
coreml_model.convert(...)
coreml_model.save(...)

所以,作为用户我们的使用就比较简单了,只需要执行下面的命令:

python -m python_coreml_stable_diffusion.torch2coreml --convert-unet --convert-text-encoder --convert-vae-decoder --convert-safety-checker -o ./models

我在首次执行时报出如下错:M1芯片Mac book pro部署stable diffusion模型,AI作画,stable diffusion

Token is required ('token=True"), but no token found. You need to provide a token or be logged in to Hugging Face with "hug gingface-cli login' or 'huggingface_hub.login'. See https://huggingface.co/settings/tokens. 所以我们首先要去官网注册hugging face并登录。然后在标红链接页面下创建一个tokens,之后点击后面的复制即可。然后在命令窗口执行如下命令

huggingface-cli login

如下图是命令执行结果,圆圈后有一处空白是填token的地方,点击直接粘贴,然后enter即可。之前在这儿浪费了很多的时间,因为你粘贴后的token在窗口上是看不到的,不知道到底输入没输入成功,所以就来回的多次粘贴导致token不正确。提示token is valid之后只需等待即可。命令执行会比较久,十来分钟左右,包含从 Huggingface 下载模型,加载并转换模型格式。默认情况下,模型使用的是 CompVis/stable-diffusion-v1-4,如果你希望使用其他的模型,可以通过添加 --model-version 参数,支持的模型版本除了默认的 “v1.4” 之外,还有: runwayml/stable-diffusion-v1-5 和 stabilityai/stable-diffusion-2-base。从hugging face上下载模型即可。

M1芯片Mac book pro部署stable diffusion模型,AI作画,stable diffusion

 命令执行完毕,我们将在 ./models 目录,得到必须的四个模型,尺寸都不算小:

580M	./models/Stable_Diffusion_version_CompVis_stable-diffusion-v1-4_safety_checker.mlpackage
235M	./models/Stable_Diffusion_version_CompVis_stable-diffusion-v1-4_text_encoder.mlpackage
1.6G	./models/Stable_Diffusion_version_CompVis_stable-diffusion-v1-4_unet.mlpackage
 95M	./models/Stable_Diffusion_version_CompVis_stable-diffusion-v1-4_vae_decoder.mlpackage

第四步 运行转换后的模型进行验证

完成模型构建之后,我们可以运行模型,来验证模型转换是否成功:

python -m python_coreml_stable_diffusion.pipeline --prompt "magic book on the table" -i ./models -o ./output --compute-unit ALL --seed 93

在上面的命令中,我们做了几件事,告诉程序使用 ./models 目录中的模型进行计算,将生成的图谱保存在 ./output 目录中,允许使用所有类型的运算单元(CPU/GPU),使用一个固定的随机数种子,确保每次生成的结果都是一样的,方便我们进行测试复现。当然,最重要的是,我们将要生成图片的文本描述写在 --prompt 参数中,告诉模型应用要生成“一本放在桌子上的魔法书”。如果你的设备只有 8GB 的内存,这里需要调整下 --compute-unit 参数,指定参数值为 CPU_AND_NE

程序运行之后,需要等几分钟:

M1芯片Mac book pro部署stable diffusion模型,AI作画,stable diffusion

最后命令窗口出现saving generated image to……即表示生成成功。我们将能够在 ./output 目录中,找到生成的图片。

但是,每次使用都要等三四分钟才能得到图片,未免太慢了。而且想生成不同的图,不论是需要调整“随机数种子”,还是要改变“描述文本”,都得在命令行中完成,遇到文本特别长的时候,非常不方便。 

第五步 为 ML Stable Diffusion 编写一个 Web UI

通过 gradio 工具,能够为 Python 应用,快速创建简洁美观的 Web 界面。Huggingface 中非常多的应用界面都是用它完成的。链接👉 GradioM1芯片Mac book pro部署stable diffusion模型,AI作画,stable diffusion

为了解决上面的问题,我们可以用它来创建一个 Web 界面,把 ML Stable Diffusion 的图片生成和 Web 界面“绑定”到一起。实现代码如下: 

import python_coreml_stable_diffusion.pipeline as pipeline

import gradio as gr
from diffusers import StableDiffusionPipeline

def init(args):
    pipeline.logger.info("Initializing PyTorch pipe for reference configuration")
    pytorch_pipe = StableDiffusionPipeline.from_pretrained(args.model_version,
                                                           use_auth_token=True)

    user_specified_scheduler = None
    if args.scheduler is not None:
        user_specified_scheduler = pipeline.SCHEDULER_MAP[
            args.scheduler].from_config(pytorch_pipe.scheduler.config)

    coreml_pipe = pipeline.get_coreml_pipe(pytorch_pipe=pytorch_pipe,
                                  mlpackages_dir=args.i,
                                  model_version=args.model_version,
                                  compute_unit=args.compute_unit,
                                  scheduler_override=user_specified_scheduler)


    def infer(prompt, steps):
        pipeline.logger.info("Beginning image generation.")
        image = coreml_pipe(
            prompt=prompt,
            height=coreml_pipe.height,
            width=coreml_pipe.width,
            num_inference_steps=steps,
        )
        images = []
        images.append(image["images"][0])
        return images


    demo = gr.Blocks()

    with demo:
        gr.Markdown(
            "<center><h1>Core ML Stable Diffusion</h1>Run Stable Diffusion on Apple Silicon with Core ML</center>")
        with gr.Group():
            with gr.Box():
                with gr.Row():
                    with gr.Column():
                        with gr.Row():
                            text = gr.Textbox(
                                label="Prompt",
                                lines=11,
                                placeholder="Enter your prompt",
                            )
                        with gr.Row():
                            btn = gr.Button("Generate image")
                        with gr.Row():
                            steps = gr.Slider(label="Steps", minimum=1,
                                            maximum=50, value=10, step=1)
                    with gr.Column():
                        gallery = gr.Gallery(
                            label="Generated image", elem_id="gallery"
                        )

            text.submit(infer, inputs=[text, steps], outputs=gallery)
            btn.click(infer, inputs=[text, steps], outputs=gallery)

    demo.launch(debug=True, server_name="0.0.0.0")


if __name__ == "__main__":
    parser = pipeline.argparse.ArgumentParser()

    parser.add_argument(
        "-i",
        required=True,
        help=("Path to input directory with the .mlpackage files generated by "
              "python_coreml_stable_diffusion.torch2coreml"))
    parser.add_argument(
        "--model-version",
        default="CompVis/stable-diffusion-v1-4",
        help=
        ("The pre-trained model checkpoint and configuration to restore. "
         "For available versions: https://huggingface.co/models?search=stable-diffusion"
         ))
    parser.add_argument(
        "--compute-unit",
        choices=pipeline.get_available_compute_units(),
        default="ALL",
        help=("The compute units to be used when executing Core ML models. "
              f"Options: {pipeline.get_available_compute_units()}"))
    parser.add_argument(
        "--scheduler",
        choices=tuple(pipeline.SCHEDULER_MAP.keys()),
        default=None,
        help=("The scheduler to use for running the reverse diffusion process. "
             "If not specified, the default scheduler from the diffusers pipeline is utilized"))

    args = parser.parse_args()
    init(args)

我们将上面的代码保存为 web.py,同样放在项目的 python_coreml_stable_diffusion 目录中。然后执行命令: 

python -m python_coreml_stable_diffusion.web -i ./models --compute-unit ALL

执行日志结果如下:

M1芯片Mac book pro部署stable diffusion模型,AI作画,stable diffusion

在日志的结束处,我们看到程序启动了 Web 服务,并监听了 7860 端口。打开浏览器,访问这个地址,我们就能看到预期中的 Web UI 啦。注意该URL可能某些浏览器打不开,我的Mac上Safari浏览器就打不开,而edge浏览器就可以。

M1芯片Mac book pro部署stable diffusion模型,AI作画,stable diffusion

 想要生成图片只需要调整文本框中的 “prompt” 文本,然后点击 “Generate image” ,等待结果展示在页面上就行了,不用去调整命令行,也不用去翻找文件夹里的图片了。并且,因为我们将程序当服务运行了起来,被模型加载只需要一次,不再需要像上文一样,每次生成图片都要先加载模型,再进行计算,能节约不少时间。

部分内容来自文章:在搭载 M1 及 M2 芯片 MacBook设备上玩 Stable Diffusion 模型 - 苏洋博客文章来源地址https://www.toymoban.com/news/detail-610882.html

到了这里,关于M1芯片Mac book pro部署stable diffusion模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【AI作画】使用DiffusionBee with stable-diffusion在mac M1平台玩AI作画

    DiffusionBee下载地址 运行DiffusionBee的硬性要求:MacOS系统版本必须在12.3及以上 DBe安装完成后,去C站挑选自己喜欢的图画风格,下载对应的模型,然后将模型添加进去,如何添加? C站传送门 1.点击Model 2.点击最底部Add New Model,进入Setting页面后点击蓝色的Add New Model按钮 3.选中你

    2024年02月08日
    浏览(125)
  • 【教程】MAC m1 安装并使用AI绘画 stable-diffusion,交互式命令行。

    要求 macOS 12.3 Monterey 或更高版本 Python 耐心 第一步 下载模型包 在https://huggingface.co注册 搜索stable-diffusion-v-1-4-original跳转到页面 点击接受条款 点击上面Files and versions 下载sd-v1-4.ckpt (4.27 GB)并记下保存位置 开始安装 如果特别慢的话 一些比较正常的图片

    2024年02月11日
    浏览(68)
  • 苹果M1芯片上运行Stable Diffusion(文字作画)

    放到源码目录下的 会自定下载模型文件,有人说下载慢,时间段不同,但是我下载很快没有啥问题  执行

    2024年02月12日
    浏览(88)
  • 基于MacBook Pro M1芯片运行chatglm2-6b大模型

    ChatGLM2-6B代码地址 chatglm2-6b模型地址 Mac M1芯片部署 ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性: 更强大的性能。 更长的上下文。 更高效的推理。 更开放的协

    2024年01月25日
    浏览(63)
  • mac m1安装stable-diffusion

    查询是否安装 安装 使用brew下载python 下载完后后续会放入sd models目录下 下载链接选择safetensors 新建一个目录 mkdir stable-diffusion-webui clone 把下载的model放到stable-diffusion-webui/models/Stable-diffusion下 到当前sd目录下执行shell 执行shell遇到的问题: ** error 128 443;install gfpan 卡住 需要使

    2024年02月09日
    浏览(37)
  • MAC搭建M1环境的stable-diffusion

    苹果公司的程序员为 M1,M2 之类的ARM64芯片专门创建了一个 stable-diffusion 的仓库: Run Stable Diffusion on Apple Silicon with Core ML 链接为: https://github.com/apple/ml-stable-diffusion 可以充分利用 M1 内置的人工智能芯片(神经网络芯片), 需要转换 PyTorch 模型为 Apple Core ML 模型。 本文基于这个仓库进

    2024年02月09日
    浏览(45)
  • Stable-Diffusion-webui mac m1安装

    推荐下载器:neat download manager 安装git python 3.10 下载地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui 我这边是通过pycharm 通过git直接拉取到本地的,下载的,最好先建立个gitee仓库 下载迅速(考虑到网速问题) 在苹果终端输入sudo apt install wget git python3 python3-venv 通过brew inst

    2024年02月13日
    浏览(34)
  • Mac本地部署Stable Diffusion,超详细,含踩坑点(AI 绘画保姆级教程)

    相继在两个云平台 Kaggle 和 AutoDL 上部署了 Stable Diffusion 后,这周决定再在 Mac 本地部署一下 Stable Diffusion! 其实看 Stable Diffusion WebUI 的 Github 官网,步骤还是比较清晰简单的。 但实际部署过程中,确实还是遇到了不少问题,所以顺便将踩过的坑一一记录了下来,应该涵盖了大

    2024年02月11日
    浏览(51)
  • M1本地部署Stable Diffusion

    参考博客: 在Mac上部署Stable Diffusion(超详细,AI 绘画入门保姆级教程) 安装需要的依赖库 可能中途会存在下载报错或者下载卡主的问题,需要切国内源 brew进行替换源: 最后再次尝试下载就可以了 在Mac上部署Stable Diffusion(超详细,AI 绘画入门保姆级教程) 克隆仓库: 启动web

    2024年02月07日
    浏览(41)
  • Mac(m1/m2)安装stable-diffusion-webui教程

    前言 内容介绍 软硬件需求 安装步骤 第一步:安装homebrew 第二步:安装pytorch 第三步:安装stable diffusion webui 第四步:下载ai绘图基础模型 第五步:运行 常见问题         问题1:系统运行容易卡在gfpgan、clip,所以建议提前安装好这些组件         问题2:pip3安装慢,

    2024年02月13日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包